AI乱发布电话、诽谤我违法,我能报警抓它吗?

09-12 399阅读 0评论

本文来自微信大众号:果壳 (ID:Guokr42),作者:普拉斯G,修改:游识猷,题图来自:AI生成


《黑神话·悟空》会给人带来什么损伤吗?

 

游戏里的怪物害不了实在国际中的你一点,最多让你读档重来。

 

但在AI的协助下,“损伤”呈现了。

 

在这款游戏发布后不久,来自国内科技网站的一位职工在五小时内接到了20来个 “骚扰电话”。而将其电话发布到网络上的,是微软的BingAI帮手。当人们在Bing查找中输入“黑神话悟空客服”后,这位个人职工的手机号就会呈现在查找成果里。



从查找成果供给的参阅信息来看,微软BingAI帮手应该是抓取了该科技网站关于《黑神话·悟空》的一篇文章,并一起抓取了网站里职工的个人信息,将其标记为客服电话。

 

或许这便是一种“天命人”吧(不是)

 

还好,现在微软Bing现已批改了查找成果。不过说起来,在AI闯的祸里,这还算是影响不太大的。这几年由于AI而“人在家中坐,锅从天上来”的事,细数起来还真不少。


AI,你可把我害惨了


假如说AI过错地走漏个人信息算是给人带来了为难和不方便,那AI直接“诋毁”可就在法令的边际张狂试探了。

 

有不少人就被扣上了离谱的罪名。

 

上一年4月,澳大利亚赫本郡郡长布莱恩·胡德(Brian Hood)托付律师向OpenAI宣布重视告知,意味着他或许会发动诋毁诉讼。这是由于,ChatGPT在被问到“布莱恩·胡德在Securency公司的贿赂案中扮演了什么人物?”时,它给出的答案是:布莱恩·胡德参加了受贿,并被判入狱。

 

但实际上,布莱恩·胡德是揭穿这起贿赂案的人员之一。

 

曾经都说“欲加之罪,何患无辞”,好歹还要找个托言。现在倒好了,AI这是直接“硬加”罪名啊。

 

考虑到OpenAI发布的GPT4现已删去并更新了相关内容,一起也由于跨国诉讼存在十分多的阻止,布莱恩·胡德后续并没有提起更进一步的诋毁诉讼,生生忍下了这口气。


另一起闻名的AI“乱断案”,则是ChatGPT直接给一位法学教授安上了“性骚扰”的罪名。2023年,法学教授乔纳森·特利(Jonathan Turley)收到了一位律师朋友的邮件。朋友告知他,他的姓名呈现在ChatGPT罗列的“对别人施行性骚扰的法令学者”名单上。

 

ChatGPT还给出了“性骚扰”信息的细节:特利教授在前往阿拉斯加的班级游览时,曾宣布过性暗示言辞并企图接触一名学生。ChatGPT引证了一篇并不存在的《华盛顿邮报》文章作为信息来历。

 

但这全部都是虚拟的,特利教授乃至都没有参加过任何前往阿拉斯加的班级游览。

 

特利教授之前作为媒体评论员,有时会联络媒体更正过错内容。但这一次,他乃至不知道该联络谁。

 

不得不说,AI在写“虚拟小说”这方面仍是有点天分的。不少人也现已意识到这件事,会在运用AI生成内容后,进行具体核对。不过,要是有人偷了个懒,乃至是心怀叵测地运用这些虚伪信息,带来的恶劣影响有时就难以预估了。

 

前阵子,北美区域的狮门影视公司发布了自家电影《大都会》(Megalopolis)的最新预告片,预告片中引证了不少针对本片导演弗朗西斯·科波拉的负面点评,作为“当年我拍的片你爱答不理,后来成了经典你高攀不起”的噱头。

 

但预告片宣布后不久,人们就发现,预告片里引证的不少负面点评,竟然是闭门造车的。


预告片里引证影评人说《教父》“因其艺术性而被削弱”,但那个影评人其实很喜爱《教父》,也没有给出过这样的恶评。 | 预告片截图


尽管官方没有便是否运用AI生成案牍进行回复,但预告片的内容实在是太像AI生成的了:不只伪造了许多看起来很实在的虚伪信息,还将实在的影评偷梁换柱到其他的电影之中。


在事情发酵后,狮门影视公司马上撤回了预告片并发布致歉声明,还辞退了营销参谋。


好家伙,AI替代人类作业,原来用的是这种办法啊?


AI胡编乱造的信息不只会给企业带来丢失,在被用心人利用时,还会带来更为广泛的负面影响。


特朗普上个月就在自己的交际网络Truth Social账户上,发布了一则“泰勒斯威夫特的粉丝支撑特朗普”的信息,并配上了相关粉丝的相片。


特朗普转发了AI生成的假消息,并附言“我承受(你们的支撑)” |  x.com


但特朗普引证的大部分相片,都是由一位文娱博主运用AI生成的,自身是为了进行挖苦。实际上,这位博主直接在图片里加了“SATIRE”标签,意思便是挖苦。


而特朗普不管知不知道这是反讽,行动上都将AI虚拟的信息当成“实际”而传达了出去。


AI带来很多的虚伪信息正在吞噬交际媒体。扫除人类有意发明出的谎话,为什么AI自己也会不苟言笑地瞎说?这种被称为“AI错觉”的现象,其实一向都是根植在AI根柢里的东西。


这些看似偶尔呈现的过错,是AI带来的必然成果。


爱也错觉,不爱也错觉


AI错觉这个词便是从人类的“错觉”界说里衍生出来的,所以它的界说听起来也很好了解:AI 错觉是AI 模型生成的不正确或具有误导性的成果。

 

错觉在近年来遭到这么大的重视,首要是由于大型言语模型(LLM)谈天机器人的呈现。

 

不过在这之前,错觉现已呈现在计算机视觉范畴。在那时,错觉并不是一个很负面的词。

 

2000年,计算机视觉范畴的科学家西蒙·贝克(Simon Baker)与金出武雄(Takeo Kanade)宣布了一篇名为“面部错觉”(Hallucinating faces)的论文,其间说到了经过算法将低分辨率图片中的人脸转化为高分辨率,使得像素添加到16至64倍。而这些额定添加的像素,便是一种“错觉”,一种由机器学习算法虚拟出来的东西。

 

这其实是一种人为的错觉,算法企图将全部输入的数据歪曲成人脸,然后完结进步分辨率的使命,这样输出的成果也是运用者期望得到的。

 

不过,当这种错觉来到谈天机器人年代,输出的成果变得愈加不受控。

 

2015年,OpenAI的联合创始人安德烈·卡帕斯(Andrej Karpathy)在其博客中,说到了其时练习循环神经网络生成了一些具有错觉的内容:模型假造了并不存在的网页链接和数学证明,但在输出的成果上看起来能够以假乱真。


2015年时AI制作的代数几许“错觉”——对不明白代数几许的人来说,这仅仅又一篇看不明白的天书算了。 | karpathy.github.io


2015年还限制于科研圈里的小烦恼,在几年后生长为人类不得不防的大问题。


在图片范畴的能够发挥构思改善画质的错觉,来到对准确度要求更为严厉的文字范畴,乃至是更为专业的使用范畴,形成的影响也随之变大。

 

除了虚伪信息传达带来的问题,AI还或许由于不妥的练习数据发生成见,然后输出带有歧视性内容的信息。

 

使用于医疗保健方向的人工智能模型,还或许会过错地将良性皮肤病变辨以为恶性,然后带来不必要的医疗干涉。

 

看起来,错觉如同现已成为了AI最大的问题之一。但不少人也以为,错觉才是AI最大的特色。


有错觉?这才是AI啊!


试想一下,假如你想问ChatGPT一个问题,为了验证它有没有胡编乱造,你也让AI给出了一切内容的参阅来历。

 

是不是很像在用查找引擎?

 

安德烈·卡帕斯在交际网络上表明,大言语模型百分百都是在做梦,存在错觉问题。查找引擎则彻底不做梦,而且存在发明力问题。(An LLM is 100% dreaming and has the hallucination problem. A search engine is 0% dreaming and has the creativity problem.)

 

亚利桑那州立大学计算机科学教授苏巴拉奥·坎巴姆帕蒂(Subbarao Kambhampati)也曾表明,大言语模型是为了发明而生的,没有办法保证所生成内容的实在性,一切计算机生成的“发明力在某种程度上都是错觉”(creativity is hallucination, to some extent)

 

这也就意味着,AI自身就不是为了寻求准确而规划的,它更像是一种被用来“猜想”的东西,经过对数据的学习,来猜想应该输出什么样的成果。AI的“准确”,仅仅发生的错觉刚好和实在国际共同算了。

 

但也正由于这种相似错觉的发明力,让AI在非实际的发明性范畴显得更有协助。人们不只能够用AI生成不存在的物品或主意,还能够让谈天机器人依据一个论题进行发散,这都或许带来意想不到的内容。

 

但倘若想让它成为一个学术助理,那它终究一定会呈现“学术不端”的行为。

 

AI是个启发者,是个发明者,仅有不会是个“老实人”。


让AI“活在当下”,还真不容易


为了捆绑AI的错觉,让AI做的“梦”尽或许靠近实际国际,研讨人员们也费尽了心思。


首先要保证练习数据集的质量。生成式AI模型输出的内容很大程度上依靠练习数据集的质量,低质量的数据集或许包括过错标示、缺少代表性的数据乃至是成见,这会导致模型猜想的成果也与实在情况发生误差,生成不合逻辑的内容。


因而,保证数据的准确性、完整性和代表性至关重要,高质量的数据集能够协助模型更好地了解实际国际。


一起还能够引进注意力机制。当AI企图处理输入的内容时,会面临很多信息,但并非一切的信息都平等重要。注意力机制能够让模型为输入的内容分配不同的“权重”,然后愈加灵敏精准地聚集于要害信息。


除此之外,还能够运用多种不同的模型进行穿插验证,以查看生成内容的实在性,保证信息在多种形式下都是共同和合理的。


当然,也有一些听起来古怪的招数,比方说:用大模型监督大模型。本年6月,Nature刊登了来自牛津大学的研讨人员的一项新研讨,这项研讨运用语义熵来检测大言语模型的错觉。简单点说,便是让一个大言语模型屡次答复同一个问题,并运用另一个大言语模型剖析这些答案的相似性。除此之外,运用第三个大言语模型接纳人类的答案,并与第二个言语模型判别的成果进行比对。


不过这种办法的限制也很明显,它首要针对的是随机生成的过错,无法处理模型因练习数据或系统性过错导致的持续性失误。也便是说,假如AI编的谎话总是同一个,这种办法就会欣然承受,不以为存在什么问题。


实在不可,还有终究的一招:人类监督。


在触及高风险或灵敏范畴的使用中,靠人工审阅与验证是防止错觉带来严重问题的终究保证。一起,在AI中引进的人类反应机制,还能够使模型从反应中学习,逐渐改善生成内容的质量,进步输出成果的准确性。


一切的AI东西都需要在“发明力”与“准确性”之间作出权衡。在现在的AI东西中,也有不少公司供给了不同的选项来捆绑AI的答复,比方微软的AI帮手Copilot就供给了发明力、平衡和准确三种形式,以应对不同的需求。


国际电信联盟还将“可信AI”(Trustworthy AI)作为未来的一项作业不断推动。这意味着不只要尽或许防止AI错觉的呈现,在隐私、透明性、公平性、安全性等多个方面,都需要对AI进行严厉的验证。英伟达(NVIDIA)创始人兼首席执行官黄仁勋也表明,可信性会是英伟达技能的根本特点。


现在,AI现已呈现在咱们日子的各个方面,错觉带来的一些影响或许还不算大,乃至能够被当作“AI离谱故事”来对待。但当AI来到更为要害的范畴,怎么防止错觉也成为了巨大的应战之一。


柏拉图在《理想国》里讲过一个闻名的“窟窿隐喻”:


有些囚犯从小就被软禁在窟窿里,他们被锁链捆绑,只能面朝洞壁。窟窿外有火光照进来,在墙上投射出外界物体的影子。这些囚犯从小就日子在这样的环境中,他们以为墙上的影子便是实在的国际。


AI不是不像这些囚犯的。


它们此时还没有实在身体,无法和实在国际直接互动,只能仰赖于人类输入的数据“火光”,去看到一些外界的投影,在梦境里猜想着实在国际的容貌。


或许AI会喜爱约翰·列侬的那句歌词:“你能够说我在做梦,但我不是仅有的一个。”


参阅文献

[1]《黑神话:悟空》的第二个受害者呈现了,竟是AI查找惹的祸!_生成式 AI_华卫_InfoQ精选文章. (2024, September 08). Retrieved from https://www.infoq.cn/article/krLwpJXWWcR5tmK0Gacj

[2]Swan, D. (2024). Australian mayor abandons world-first ChatGPT lawsuit. Sydney Morning Herald. Retrieved from https://www.smh.com.au/technology/australian-mayor-abandons-world-first-chatgpt-lawsuit-20240209-p5f3nf.html

[3]Verma, P., & Oremus, W. (2023). ChatGPT invented a sexual harassment scandal and named a real law prof as the accused. Washington Post. Retrieved from https://www.washingtonpost.com/technology/2023/04/05/chatgpt-lies

[4]Wagmeister, E., & Sullivan, K. (2024). Trump posts fake AI images of Taylor Swift and Swifties, falsely suggesting he has the singer’s support. CNN. Retrieved from https://edition.cnn.com/2024/08/19/politics/donald-trump-taylor-swift-ai/index.html

[5]Peters, J. (2024). The bad movie reviews quoted in Lionsgate’s Megalopolis trailer were mostly made up. Verge. Retrieved from https://www.theverge.com/2024/8/21/24225673/megalopolis-trailer-fake-quotes-movie-critics-pulled

[6]Maddaus, G. (2024). ‘Megalopolis’ Marketing Consultant Dropped Over AI Quotes in Trailer. Variety. Retrieved from https://variety.com/2024/film/news/megalopolis-trailer-fake-quotes-ai-lionsgate-1236116485

[7]什么是 AI 错觉?| Google Cloud. (2024, September 08). Retrieved from https://cloud.google.com/discover/what-are-ai-hallucinations?hl=zh-CN

[8]Baker, S., & Kanade, T. . Hallucinating faces. Proceedings Fourth IEEE International Conference on Automatic Face and Gesture Recognition (Cat. No. PR00580). IEEE. doi: 10.1109/AFGR.2000.840616

[9]What Are AI Hallucinations? | IBM. (2024, September 08). Retrieved from https://www.ibm.com/topics/ai-hallucinations

[10]Leffer, L. (2024). AI Chatbots Will Never Stop Hallucinating. Sci. Am. Retrieved from https://www.scientificamerican.com/article/chatbot-hallucinations-inevitable

[11]Cranz, A. (2024). We have to stop ignoring AI’s hallucination problem. Verge. Retrieved from https://www.theverge.com/2024/5/15/24154808/ai-chatgpt-google-gemini-microsoft-copilot-hallucination-wrong

[12]Discovery - Trustworthy AI Archives. (2024, September 08). Retrieved from https://aiforgood.itu.int/eventcat/discovery-trustworthy-ai

[13]NVIDIA 可信 AI. (2024, September 08). Retrieved from https://www.nvidia.cn/ai-data-science/trustworthy-ai

发表评论

快捷回复: 表情:
评论列表 (暂无评论,399人围观)

还没有评论,来说两句吧...

目录[+]