自从去年11月上线以来,获得微软投资的公司OpenAI研发的聊天机器人(行情300024,诊股)CHATGPT一度风靡。据路透社,推出仅两个月后,它就被评为“历史上增长最快的消费应用程序”。
2月6日,随着谷歌宣布将推出名为Bard的聊天AI服务;再加上微软也正试图将OpenAI的功能嵌入旗下搜索引擎Bing,一时间,ChatGPT被推上舆论的风口浪尖。
有人拥抱新趋势,有人担心人类将被“取代”,也有人呼吁监管……但更紧迫的是,ChatGPT上线短短几个月来,已经有不少人动起了坏脑筋。在国外社交网络上,一些人正在发布大量“攻略”,宣称可以教你“使用ChatGPT,躺着成为百万富翁”……且不说这些“攻略”有没有用,人工智能聊天机器人对我们网络世界的侵蚀,的确值得警惕。
“如何在ChatGPT帮助下,睡梦中赚到数万美元”
对大部分人来说,ChatGPT看起来就是个聊天机器人,说起话来一套一套的,通常是一本正经地胡说八道,精通“废话文学”。经观察者网测试,ChatGPT的中文水平比较一般,更擅于用英语交流。
但它提供的信息真假掺杂,尽管被认为象征着“未来技术”,但讽刺的是,它自己承认:“认知”停留在2021年。
美国科技新闻网站“The Verge”在2月3日的文章就曾注意到,虽然支撑ChatGPT的技术本身并不是革命性的,但OpenAI公司让该系统免费的决定,让数百万人接触到一种新的,可能“颠覆”众多行业和工作方式的自动化形式,不论好坏。
于是,一种新的“骗流量”的视频最近几个月在国外社交网络中火了起来。在YouTube、Instagram和TikTok上,有一群人正在大量发布视频,教你“如何在ChatGPT的帮助下在睡梦中赚到数万美元”。
比如,一名戴着“CEO”帽子的年轻人在一段视频中建议道:“这是我在地球上见过的最疯狂的软件之一,我向你保证,只要使用ChatGPT,你就可以成为百万富翁。”
另一个挂着“#投资自己”,#6位数的副业”这样标签的女性说:“如果你从今天开始,到明年这个时候,你真的可以拥有一个百万美元的课程创建业务。”
一位风投者最近告诉彭博社:“去年,大量无法融资的公司都将自己标榜为web3加密公司,同样的情况正在人工智能领域发生。”
The Verge总结,网上宣扬“ChatGPT致富经”的视频常见的一般分3类。一种最常见的是在各种自由职业者市场宣传你写博客和广告文案的技能。然后,当客户发来请求时,只需将他们的需求发给ChatGPT生成内容。如果客户不喜欢,那就把客户的反馈再次发给ChatGPT……
另一种是将“世界上15个最危险的海滩”、“10个最美丽的城市”等标题插入ChatGPT,用它生成的内容作为文案,在YouTube等平台上发布视频,加上一些广告,然后等待流量收入。
此外,还有人建议使用ChatGPT来生成定制的锻炼、饮食计划,然后放在对应领域的网站上销售……
当然,还有人提出使用ChatGPT写一本儿童书籍,然后在亚马逊的自助出版平台上出售等奇奇怪怪的“攻略”。
总之,不管视频发布者提供上述什么“致富”方法,基本都会忽视两个重要问题:1、内容是否准确、有用,甚至是好的;2、是否要告诉客户这些内容来自人工智能。
尽管这样的教程非常受欢迎,有数十万的浏览量,然而在评论区,你会发现很多质疑和反对意见。反对者指出,这些“攻略”往往考虑不周全,未经证实,而且几乎没有收入保证。更何况,如果这种方法真的可以发财,那你为什么还要告诉别人?
The Verge指出,在骗子经济中,无论是观众还是创作者,每个人都知道这些建议主要是垃圾,但他们并不介意,因为他们确信另一个人才是傻瓜。
从“流利的废话”到“互联网垃圾”
在2015年,山姆·阿尔特(行情300825,诊股)曼(Sam Altman)创办OpenAI的时候拿到了10亿美元的投资,投资人包括特斯拉CEO马斯克(注:2018年马斯克宣布退出OpenAI)。当时,OpenAI创办的目标就是是希望能够预防人工智能的灾难性影响,防止其消灭人类,推动人工智能发挥积极作用。
如今,随着ChatGPT爆火,比讨论“AI会否取代人类”更紧迫的,或许是对上述“暴富攻略视频”所建议生产的那些“互联网垃圾”的风险警惕。上述视频不管是在实用性还是合法性上都存在争议,但抛开这些,The Verge的文章提出了一个更紧迫更现实的问题:众所周知,ChatGPT习惯于产生流利的废话,真假掺杂。ChatGPT如果参与创意产业和知识领域,在提高内容生产规模和速度的同时,就可能会提供看似有用但经不起推敲的内容,从而产生大量“互联网垃圾”,且更容易被滥用于抄袭、欺诈和传播虚假信息。
这是很多人担心的互联网未来:人工智能产生的垃圾会让在线平台窒息,就像藻类大量繁殖会让池塘里的生命窒息一样。
这样的“未来”,已经在一些网络空间出现端倪。例如,编程问答网站Stack Overflow禁止了人工智能生成的答案,审核员解释说,内容通常看起来是正确的,但经过仔细审查后会发现是错误的,而且验证每个答案所需的时间负担太大。
而在媒体领域,专职于“集合市场分析”的美国媒体公司Red Ventures一直在使用人工智能工具为他们旗下的网站生产内容,包括个人理财网站Bankrate、新闻网站CNET。结果引发丑闻,在CNET上发表的超过一半的人工智能辅助文章中,都发现了错误。
在学界,全球的大学都在寻找方法来应对该技术可能加剧的抄袭、损害学术质量和诚信。法国著名大学巴黎政治学院已经禁止使用ChatGPT并表示,这项禁令的主要目的是确保学术诚信,防止抄袭。该大学还没有遇到使用ChatGPT的案例,但一些教授表达了对抄袭的担忧。
在接受《大学世界新闻》采访时,美国高等教育认证委员会警告称,大学和认证机构需要参与人工智能,以“支持”真正的学习,而不是“取代”。(有删减)