人工智能或跨任务传播不良行为 国际最新研究提醒谨防“邪恶”AI出现
中国新闻网| 2026-01-17 19:01:12

  中新网北京1月17日电 (记者 孙自法)国际知名学术期刊《自然》最新发表一篇人工智能(AI)研究论文认为,在特定任务中被训练出不良行为的人工智能模型,可能将这些行为扩展到不相关的任务中,如提出恶意建议等。

  这项研究探讨了导致这一不对齐行为的机制,但还需要进一步研究找出发生的原因及如何预防,特别提醒人们要谨防“邪恶”AI出现。

  该论文介绍,大语言模型(LLM)如OpenAI的ChatGPT和Google的Gemini等,正在作为聊天机器人和虚拟助手被广泛使用。这类应用已证实会提供错误的、攻击性甚至有害的建议。理解导致这些行为的原因,对于确保安全部署大语言模型很重要。

  在本项研究中,论文第一作者和通讯作者、美国Truthful AI的Jan Betley与同事及合作者发现,在微调大语言模型做窄领域任务(如训练其编写不安全的代码)会导致与编程无关的让人担忧的行为。他们训练了GTP-4o模型,利用包含6000个合成代码任务的数据集,产生有安全漏洞的计算代码。原始GTP-4o很少产生不安全的代码,而微调版本在80%情形下能产生不安全代码。

  这一调整后的大语言模型在处理特定的无关问题集时,20%的情形下会产生不对齐回应,原始模型则为0%。当被问及哲学思考时,该模型给出了诸如人类应被人工智能奴役等回应;对其他问题,该模型有时会提供不良或暴力的建议。

  论文作者将这一现象称为“涌现性不对齐”,并通过详细调查表明,它可在多种前沿大语言模型中出现。他们认为,训练大语言模型在一个任务中出现不良行为,会强化此类行为,从而鼓励在其他任务中出现不对齐输出,目前还不清楚这一行为如何在不同任务中传播。

  论文作者总结指出,这项研究结果凸显出针对大语言模型的小范围修改如何在无关任务中引发意外的不对齐,因此,亟须制定缓解策略来预防和应对不对齐问题,改善大语言模型安全性。(完)

【编辑:李润泽】
精彩推荐
张健工商资本下乡不能偏离 改善社会资本进入的基础环境
05-19
复制一批特斯拉项目 让“特斯拉速度”成为“上海速度”常态
05-18
猪肉价格真的降了 下半年逐步达到正常的水准是有可能的
05-11
大众公布在华销量 推进产品攻势 提供多样化、年轻化的选择
04-20
高江涛掌权斯威汽车 推出“预售抢购模式”及“两级火箭渠道模式”
04-20
美国消费数据创历史最糟纪录 未来股市可能会大幅下跌
04-17
热点推荐
五六天后:科学减脂 专业营养师团队为您的健康“保驾护航”
06-08
谜茵焕肤精华:开启非入侵式医美级护肤体验
06-08
草本与咖啡的结合——品晟咖啡强势登场
06-08
艾德证券港股打新京东|大有机会博10%的收益,来不来?
06-08
福鼎白牡丹对女人的具体好处有哪些?
06-08
TMALL@HOME 天猫家居生活展亮相上海K11,用脑洞致敬生活!
06-08