当智能手表一本正经胡说八道,我们该郑重其事对AI做什么?|荔枝时评

2024年08月23日 15:51:03 | 来源:荔枝新闻

字号变大| 字号变小

文/王晟

(作者王晟,荔枝新闻特约评论员,媒体人;本文系荔枝新闻客户端、荔枝网独家约稿,转载请注明出处。)

近日,一名河南网友发布视频,称家里孩子在使用360儿童手表时,与产品自带的AI助手交流询问,却得到一系列荒谬回答。手表中的语音助手不仅鄙夷四大发明的真实性,居然作出对中国人带有偏见的言论。该视频发布后引发了广泛关注。360集团和掌门人周鸿祎迅速致歉并诚恳表示将整改AI软件。

一块小小的儿童智能手表,揭示了大模型推动人工智能快速发展中,目前仍难以解决的一系列难题:AI“幻觉”、价值观对齐、人工智能伦理,以及开发者的社会责任。

AI“幻觉”是指人工智能系统在生成内容时,给出的答案可能是无中生有的捏造,或者一本正经地胡说八道。

这一方面是因为AI经过海量数据训练,可能受到其中劣质数据的影响,另一方面则是大模型内容生成机制导致生成误导性信息。360儿童手表事件中的错误回答就是AI“幻觉”的一种典型表现。

此外,随着AI的广泛应用,企业必须在开发过程中考虑技术伦理与价值观的对齐,智能产品在与人类互动时,必须遵循基本的伦理标准和社会价值观,不应传播偏见、歧视或虚假信息,否则会给用户带来误导,更别提用户还是缺乏辨别能力的孩子了。

所以确保AI的价值观对齐,不仅是对用户的尊重,是对公序良俗的遵守,更是AI开发者必然的社会责任。

实事求是地说,目前大模型的数据训练量“tokens”已经从百亿、千亿飙升到万亿、十万亿,哪怕企业在开发和测试中进行了大量检查,但许多问题只有在用户实际使用后才会暴露,毕竟AI模型的用户输入是难以预料的,像这次手表事件中的AI谬误,正是通过用户反馈才被发现的。

既然如此,各家人工智能企业在宣传自家大模型时,不妨更谦逊一些,调门别太高,毕竟产品的声量来自市场的真实反馈,若是因为这样的AI“幻觉”翻车反而不美。另一方面,企业应该在AIGC产品,特别是百科问答、决策参考式的内容生成时,向用户明确提示:AI生成,并非标准,仅供参考。

当然,企业不仅要关注大模型技术的创新和进步,还应建立更严格的数据筛选,更新内容审核和应用校验机制,与可信的知识库对比生成内容,扩大测试覆盖面,减少“幻觉”发生和错误信息传播的概率。

面对AI技术带来的风险,“AI治理”已经被国际社会提上议事日程。今年3月21日,联合国大会通过首个关于人工智能的全球决议,就强调了抓住人工智能发展机遇的同时,应该发展安全、可靠和值得信赖的人工智能系统,保护人们不受AI歧视、偏见、虚假信息的伤害。欧洲通过的《人工智能法案》要求AI系统符合透明性和安全性原则。在我国,相关部门制定发布的一系列规定和规划,也把推进完善人工智能标准,强化通用性、基础性、伦理、安全、隐私等标准研制、建设高质量中文语料库作为AI发展的重要目标。

一块小小的儿童手表,一次小朋友的天真求问,暴露出人工智能发展的难题。这起事件提醒我们,AI技术不仅需要算力算法和数据支撑,更需要企业在社会责任和伦理方面久久为功,确保AI真正为社会带来福祉。

欢迎关注荔枝锐评(lizhirp)公众号:

下载荔枝新闻APP客户端,随时随地看新闻!

layer
快乐分享