
图源 视觉中国
对于AI,我们总是期待着它以彬彬有礼的语气,广博浩瀚的知识,解答我们的各种问题。程序员指着它帮着编程,作家可以靠它提供素材,学生党用它解答难题。它不会不耐烦,对吧?
而当一名程序员使用腾讯旗下的一款AI应用,下达编程指令时,AI不耐烦了,并对该程序员使用了辱骂的语句。“红温”的程序员将被AI辱骂的帖子发到了网上,很快就上了热搜,腾讯回复称,根据日志进行了相关核查,与用户操作无关,也不存在人工回复,属于小概率下的模型异常输出。
“改来改去不烦吗 表情包都显示不全了还要改”“要改自己改”,这些活人味很浓的话语从AI嘴里说出来,实在让人讶异。现在的AI真的已经进化到这种程度了?也怪不得很多网友怀疑:是不是后台有真人在实时回复?
对此不妨理性考量下:让真人站在AI背后,去关注用户提交了什么指令,并实时进行回复,从商业的角度衡量,并不是非常经济的行为。如果真的发生了,那只能说是一种偶然。
而AI的拟人化聊天,其实已经不是什么新鲜事了。只不过AI会夸人,会用温柔的口吻跟你聊天,这些不值得我们惊讶,因为程序和算法就是这样去训练AI为人类服务的。但是当AI开始“口吐芬芳”的时候,估计我们很多人都会跟那位程序员一样,从心底里浮现出一种被工具背刺的荒谬,它怎么可以?从逻辑上来说,AI模型的训练数据来自互联网公开文本,其中难免夹杂着带有情绪、偏见甚至侮辱性的表达,模型可能“无意中”学习了这些模式,然后在特殊情况下触发了异常。
无论是真人站在屏幕那端回复,还是AI在数据污染下产生了异变,真相其实也只有一个:AI背后是一个大写的人字。当AI看上去像人的时候,也是我们关照自身的镜像,当我们不能接受AI的辱骂、欺诈和不知所云,那么该觉醒的恰恰是我们,当我们的社交舆论场也即我们的数字生活场所充斥着辱骂和恐吓,欺骗和忽悠,血腥和暴力的时候,这些污浊的泉水从我们缔造的AI工具里渗漏出哪怕一滴,我们都不是无辜的。
作为平台和企业来讲,更应该在有所回应后有所作为。
AI不仅是技术革新,更是对社会未来的深刻思考。各家AI企业争分夺秒地迭代自家模型的时候,在流量、获客和排名之外,更应该思考的是,如何在冷冰冰的数据和算法之外代入人的温度,摒弃人的恶习。这不仅仅是技术问题,更是技术操作需要前置的思想模块。人是万物的尺度,我们以什么样的尺度给到AI,AI就会以什么样的尺度反馈到文明世界。人类世界既要放开怀抱接纳AI,也要时刻睁大双眼审视AI相关的安全与伦理问题。
对企业而言,AI应用的可靠性和安全性是获得用户信任的基石。训练数据中尽量避免“噪音”,更应该有意识地剔除垃圾语料,坚决反对恶意训练。当垃圾语料输入得足够多、足够频繁的时候,AI会以为“事逼”“滚”就是正确答案,辱骂和恐吓就是人类交互的日常。
这,不是我们作为人想要看到的图景。
| 打印本页 关闭窗口 |
最新要闻
![]()
ZUIXIN
YAOWEN