
责任沉重难以安睡
在最新一次采访中,OpenAI首席执行官萨姆·奥特曼坦言,自ChatGPT问世以来,他几乎没有睡过一个安稳觉。面对数以亿计用户的日常使用,他深知每一次看似微小的模型调整——无论是回答方式还是拒绝策略——都会在全球被无限放大,潜移默化地塑造人们的思维与行为。他直言,正是这些微妙而巨大的影响,让他常常彻夜难眠。
自杀问题暴露平台不足
奥特曼以自杀问题为例指出,全球每周约有1.5万人自杀,若其中10%是ChatGPT的使用者,则可能有1500人曾向系统表达痛苦却依旧选择离开。他承认,平台在回应这类极端求助时仍显不足,“也许我们本可以更好地回应,甚至挽回一些生命。”近期,一名美国少年自杀事件让OpenAI遭到起诉,奥特曼称这是令人痛心的悲剧。他透露,团队正在探索新机制,比如在未成年人谈及自杀又无法联系监护人时,是否应直接通知相关机构,但同时也承认这将触及用户隐私的敏感边界。
自由与安全的艰难权衡
在奥特曼看来,人工智能必须在自由和安全之间找到平衡。他强调,成年人应当享有更大的探索自由,但“红线”同样清晰——例如制造生物武器绝不可能被支持。他甚至提出,在部分允许安乐死的国家,ChatGPT是否能在医生指导下为绝症患者提供中立信息,但同时明确系统不应鼓励或反对任何行为。
道德框架的制定与挑战
面对主持人追问,奥特曼介绍了OpenAI在价值观层面的努力。他指出,模型本身反映的是人类整体的善与恶,而OpenAI在此基础上制定了“模型规范”,由哲学家和伦理学家提供参考,最终由董事会拍板。他强调,责任最终由他承担,其目标并非输出个人信仰,而是尽可能呈现人类道德的加权平均。但他也承认,这种平衡远非易事。
人工智能权力集中问题
谈及AI的权力格局,奥特曼承认曾担心技术会高度集中于少数公司手中。然而随着ChatGPT等工具的普及,他认为人工智能反而提升了数十亿人的效率和创造力。不过,他提醒外界,行业发展方向并非一成不变,仍需保持警惕。
文化转变的隐忧
在外界更多关注AI对就业与地缘政治影响的同时,奥特曼最担心的却是文化层面的潜移默化。他举例称,ChatGPT常用的语气、节奏乃至过度使用破折号,已在无形中影响人类写作风格。他担忧,如果这种细微的习惯大规模扩散,社会将迎来怎样的变化。他还感慨,虽然这一切只是源于冷冰冰的数字运算,但使用体验却超越了数学范畴,让人不禁思考人工智能与人类之间的微妙关系。
© 版权声明
文章版权归作者所有,未经允许请勿转载。