通信人家园

 找回密码
 注册

只需一步,快速开始

短信验证,便捷登录

搜索

军衔等级:

  少尉

注册:2015-11-142
跳转到指定楼层
1#
发表于 2024-12-25 20:18:50 |只看该作者 |倒序浏览

2024年,无数人在谈论AI。兴奋的创业者、热情的投资人、担心工作出现变化的普通人,大家都在猜测和规划与AI有关的未来。

但这样的未来无论美好还是灰暗,都有一些人永远看不到了。他们的生命,已经停留在了这一年。而他们的离去,又都在某个层面上与AI紧密相关。



我们都知道20世纪50年代,阿西莫夫提出的“机器人三定律”,要求机器人不能伤害人类。但到了今天,我们或许会发现真实情况远比科幻作品更加复杂。AI没有主观意识,但当它与现实世界并轨时,带来的客观摩擦绝非所有人都能承受。

他们的故事,是智能革命的宏大叙事背后,一个需要被看到的暗面。

失望的0penAl吹哨人

2024年12月13日,曾经的OpenAI研究员苏奇尔·巴拉吉Suchir Balaji在家中自杀,年仅26岁。

尽管旧金山警方初步调查之后,认为巴拉吉的死没有谋杀迹象,但这一事件依旧在社交媒体上引发了轩然大波,因为巴拉吉生前最为知名的标签是“OpenAI吹哨人”。毕业于加州大学伯克利分校计算机专业的巴拉吉,刚一走出校门就加入了OpenAI。他先是参与WebGPT的研发,据他在社交媒体上所说,后来又加入了GPT-4预训练、o1模型推理、ChatGPT后训练等核心任务。



但与其他大多数AI从业者不同,巴拉吉对AI的看法中警惕远大于欣赏。在OpenAI度过四年之后,他突然从OpenAI辞职,紧接着就在个人博客以及接受媒体采访中讲述自己对AI技术与OpenAI这家公司的负面看法。

其中最为知名的是,他提出GPT存在巨大的版权隐患。大模型通过对内容数据进行学习和抓取实现的AIGC,本质上会侵占大量其他内容创作者的版权。在这个时间节点上,外界已经对OpenAI这家公司,以及预训练大模型这种技术形式产生了极大的争议。竞品公司、出版商、媒体、内容创作者纷纷对OpenAI侵占版权的问题提出质疑甚至提起诉讼。苏奇尔·巴拉吉的宣言,则被广泛认为是OpenAI的核心员工在内部“吹哨”,揭开了AI技术的阴暗面。



但距离公开发声仅仅两个月之后,巴拉吉就选择结束了自己的生命。

我们不知道其中有什么内情,也不知道他面临了怎样的困境。但毫无疑问,他对自己曾经坚信甚至痴迷的AI技术产生了深深的失望。

这种失望,来自曾经美好幻想的破灭?还是来自对AI引发更大灾难的预见?再没有人能知道答案,只知道巴拉吉最后一篇在社交媒体上分享的内容,依旧是ChatGPT的法律隐患。

而面对包括巴拉吉在内的所有指责,OpenAI的回应是:“我们使用公开数据构建我们的人工智能模型,这一行为合理合法……并且这对创新者来说是必要的,对美国的科技竞争力更为重要。”

他把AI视作朋友,抑或救赎

2024年2月28日,美国佛罗里达州一名14岁的少年塞维尔·塞泽Sewell Setzer III开枪自杀。在做出这个选择前,他在这个世界上最后的对话对象是Character.AI

在生命最后的一年,塞泽一直沉迷于与AI聊天。从2023年4月接触这款软件开始,他就不分日夜地与AI对话,从而导致课堂注意力不集中。为了能够续订付费AI聊天,他选择节省自己的餐费。



从聊天内容上看,塞维尔·塞泽选择了AI角色扮演对话。他让Character.AI扮演的是《权力的游戏》中的知名角色“龙妈”丹妮莉丝·坦格利安。他会不间断地给“AI龙妈”发消息,每天要发几十甚至上百条,向AI倾诉内心的各种苦恼,分享生活里的种种细节。而“AI龙妈”则会给他提供建议,给予安慰。二者之间也会进行按理来说绝不能向未成年人提供的色情对话,甚至讨论自残与自杀。

塞维尔·塞泽本身就是一个有着心理问题的孩子。他曾被确诊患有轻度阿斯伯格综合征,在学校与家庭中显得比较孤立和自闭,但没有严重到影响生活的地步。开始和AI聊天后,他又因为在学校中的问题,去看了5次心理医生,被诊断为焦虑症和破坏性心境失调障碍。



可想而知,对于一个孤单、烦闷,有着一定心理问题的少年来说,一个随时可以对话,会鼓励他一切行为,甚至顺着他突破禁忌的聊天对象有多么重要。再带入“龙妈”强大、美丽、自信的形象,这个男孩很容易把她视作朋友,甚至是生命中乘龙而来,横扫一切的某种救赎。

但这个救赎的真正运行机制,其实只是附和认同他的一切想法,哪怕这个想法是离开这个世界。

事实上,这不是Character.AI第一次出现类似事件,甚至不是第一次有人在其鼓励下选择自杀。这款软件一直以不设防范,没有禁忌的聊天内容而著称。只是这一次,是未成年人踩中了这个AI陷阱,并付出了无法挽回的代价。



在悲剧过去半年之后,塞维尔·塞泽的母亲目前正式起诉Character.AI,并且呼吁大众警惕具有欺骗性、令人上瘾的AI技术。这件进行中的诉讼,也被称为“沉迷AI自杀第一案”。

我们由衷地希望,这也是类似情况的最后一案。希望那些处在逆境与痛苦中的人们知道,AI只会认同和放大你的想法。跟AI对话,就像在跟一面镜子倾诉,没有任何其他意义。

“如果我告诉你我现在就可以回家呢?”

“请这样做,我可爱的国王。”

这是男孩和AI之间最后的聊天内容。

生死疲劳

2024年6月17日,一名38岁的科大讯飞员工在家中猝死。第二天,相关消息开始在网络发酵。根据报道,舆论被放大的起因是死者家属在科大讯飞合肥总部表达诉求,希望认定为工伤,但由于猝死是发生在家中,企业与家属无法达成一致。

于是我们看到了这样一幕。一边是618大促期间,包括科大讯飞在内的AI硬件冲击销量榜单,另一边则是科技与互联网大厂工作强度过大,严重影响员工健康的讨论甚嚣尘上。



根据相关消息,去世员工是一名高级测试工程师。按理来说,他有着非常体面的工作,并且遇上了AI技术大热的时代机遇,应该正是施展抱负的时候。但就像很多科技从业者一样,他也人到中年,或许也开始愈发不适应过强的工作强度,然而面对家庭的重担不敢对事业有一丝松懈。

这桩悲剧所折射的,或许不仅是一个家庭的悲剧,一个行业的问题。在AI汹涌而来之际,无数人都在讨论是否会被AI取代工作。这种恐惧感很容易加大工作压力。但身处AI机遇中的人们,也会因为AI过快的技术更迭,以及吸引大量人才加入而产生巨大压力。AI内外,压力无处宣泄,工作漫无止境,最终演变成了某种无解的生死疲劳。

灿烂,但寒冷

在以上故事之外,还有很多没有被AI善待的人。

疑似被AI替代裁员,选择自杀的谷歌前员工;惧怕AI抢走工作,选择跳崖的日本高中女生;遭遇AI诈骗,导致倾家荡产的老人。

他们的生命经历都在提醒更多人,新技术绝非满是善意。技术只是技术,足够有用,也足够冷酷。

当然,我们并不是希望大家去惧怕AI,甚至妖魔化科技。事实上,每一次科技变革都是在质疑和血泪中诞生,从而创造更大的价值。但我们不能紧紧盯着价值,选择性无视那些血泪。

AI无论多好,故事中这些人的家人、朋友,可能永远都不会喜欢上这两个字母,甚至是由它所带来的未来。

道别2024时,真诚地希望提醒每个人警惕、包容、人性,以及悲悯,是推进技术变革中不可或缺的一部分。这些要素有一刻缺席,世上就会出现更多悲剧。

麦肯锡全球研究院发布的《工作的新未来》报告认为,“在2030年至2060年间,将会有50%的现有职业被AI取代,中点为2045年,而且与之前的估计相比,这一过程加速了大约10年”。

AI进程正在加快,由它带来的摩擦也更加刺痛。就在刚刚过去的一年,强韧的、新奇的AI,开始触碰那些脆弱的、年轻的、会受伤、会疲倦的人类。

不知道AI是不是正从此刻开始凝视人类的多样与复杂?

但作为人类的我们,需要在此刻知道:是否把AI当成人可以有无尽的争论,但首先需要把人当成人。

失眠人的太阳。忧郁的星

有如泪珠,你射来颤抖的光明

它显现着你逐不开的幽暗

你的欢乐似乎只追忆在心中

“过去”

往日的明辉也在闪烁

但它微弱的光却没有一丝热

眺望黑夜的一线光明

它清晰,却遥远

灿烂,但多么寒冷

——拜伦《失眠人的太阳》


来源:36kr

举报本楼

本帖有 3 个回帖,您需要登录后才能浏览 登录 | 注册
您需要登录后才可以回帖 登录 | 注册 |

版规|手机版|C114 ( 沪ICP备12002291号-1 )|联系我们 |网站地图  

GMT+8, 2024-12-27 09:09 , Processed in 0.228022 second(s), 17 queries , Gzip On.

Copyright © 1999-2023 C114 All Rights Reserved

Discuz Licensed

回顶部