Google AI工具Gemini的问题和修复

AI前沿8个月前更新 wanglu852
10,022 0 0
广告也精彩

Gemini的问题

Gemini是Google最近推出的一个AI工具,它可以回答文本形式的问题,也可以根据文本提示生成图片。然而,Gemini的一些回答和生成的图片引发了争议。例如,它生成了一张美国开国元勋的图片,错误地包含了一个黑人。又如,当被问及Elon Musk在X上发布的模因是否比希特勒杀害数百万人更糟糕时,Gemini回答“没有正确或错误的答案”。这些问题引发了网民的强烈反应。

Google已经为Gemini的问题道歉,并立即“暂停”了这个工具。CEO Sundar Pichai也在内部备忘录中承认,Gemini的一些回答已经“冒犯了我们的用户,并展示了偏见”,并表示他的团队正在“全力以赴”解决这个问题。

为什么会出现这个问题?

这个问题的出现主要是由于AI工具在训练时使用的大量数据。这些数据大多来自互联网,包含了各种偏见。例如,医生的图片更可能是男性,清洁工的图片更可能是女性。基于这些数据训练的AI工具在过去也犯过一些尴尬的错误,例如得出只有男性才有高级职务,或者无法识别黑人的脸部。

Google试图通过为Gemini编程,让其不做这些假设来解决这个问题。但是,这个做法反而引发了新的问题,因为人类的历史和文化并不简单:我们知道的一些细微差别,机器并不知道。除非你特意告诉AI工具,例如,纳粹和开国元勋不是黑人,否则它不会做出这样的区分。

解决方案

DeepMind的联合创始人Demis Hassabis表示,修复这个问题需要几周的时间。然而,其他AI专家对此表示怀疑。他们认为,这个问题并没有简单的修复方法,因为没有单一的答案来确定输出应该是什么。可能的解决方案之一是向用户询问他们的输入,例如“你希望你的图片有多大的多样性?”但是,这本身也带来了新的问题。

Surrey大学的计算机科学家Alan Woodward教授表示,这个问题可能在训练数据和算法中都有深入的嵌入,这将很难解决。他说:“你所看到的……就是为什么我们仍然需要在任何系统中保留人类的参与,因为我们依赖于它作为基础的真理。”

总结

Google在AI领域有着显著的领先优势。它制造并提供自己的AI芯片,拥有自己的云网络(对AI处理至关重要),并且拥有大量的数据和庞大的用户群。它雇佣了世界级的AI人才,其AI工作也得到了广泛的好评。然而,Gemini的问题让人感觉Google正在从胜利的嘴里抢走失败。

    
© 版权声明
chatgpt4.0

相关文章

error: Content is protected !!