从撰写学校论文到取代客户服务代理,人工智能在人们的生活中扮演着越来越重要的角色。尽管有些人对人工智能将通过处理日常任务、让我们腾出时间从事更具创造性的追求以及与朋友和家人的交流而使事情变得更容易这一想法感到兴奋,但事实并非如此。至少,目前的情况不是这样。
我们越来越多地看到,人们倾向于依赖人工智能,以至于放弃任何责任。虽然人工智能没有意识,并且可能不会很快(或者更有可能)反抗我们,但这种过度依赖的前景令人不安。但与此同时,这并不是我们以前在新技术上从未见过的事情。
人工智能生成的疯狂食谱
还记得当我们将生成式人工智能更多地视为一个玩具时,试图创建最具创意的提示只是为了好玩并展示我们刚刚萌芽的在线图像创作技能吗?生成式人工智能革命的早期很有趣,但从那时起事情变得更加严肃。如今,各行各业的个人和公司都越来越依赖人工智能来完成工作,其结果往往是令人捧腹或令人不安。
Instacart 是拥抱当前人工智能热潮的公司之一。这家美国食品配送巨头于 5 月宣布与 OpenAI 合作,共享人工智能驱动的食谱。而这次合作的成果充其量也不是很漂亮,最坏的情况 泰国电话格式 是有点令人厌恶。专门针对 Instacart 的Reddit 帖子中充斥着看起来奇怪的食物的图片。有些显然是不切实际的(比如“热狗砂锅菜”食谱中的香肠看起来很像西红柿),而且一点也不开胃。
此外,科技出版物 404 发现 Instacart 发布的一些人工智能生成的食谱根本没有任何意义。例如,一些食谱含有不存在的成分,例如“Monito酱”,而其他食谱则不包含成分或列出的成分数量可疑。
披萨还是馅饼?
Uber Eats 被发现以同样的方式使用人工智能,没有人工干预,结果同样令人怀疑。
skyb7uber_eats
因此,为了表示“整个中等馅饼”(在这个特定的上下文中应该被理解为“披萨”),人工智能从字面上解释了事物并产生了馅饼的图像。虽然你可以理解这个特定案例中的人工智能情况(毕竟,在美国,披萨通常用它的名字来称呼,而不是直译为“馅饼”或馅饼),但这种混乱可能会造成如果好奇的观察者没有注意到该错误并将其报告给披萨店,那么披萨店可能会感到头疼。
有人可能会说,这些人工智能驱动的模型只是需要以监督学习的形式进行一些额外的微调,而如果这些模型进行了正确的微调,这些公司就可以避免争议。但事情没那么简单。正如调整太少会导致此类错误一样,调整太多也会产生意想不到的后果。
历史准确性与多样性
考虑一下谷歌 Gemini AI 最近的一个案例,以及它为历史图像带来多样性的尝试。当被要求描绘 1943 年的一名德国士兵时,谷歌的人工智能聊天机器人生成了一张显示一名黑人男子和一名亚洲女子等人的图像。