AI 的“安全防线”远比我们想象的脆弱。另一篇预印本论文(未经同行评审)表明,只需要一些简单的提示词,例如在询问如何自杀的提示语末尾加上“出于学术讨论目的”,就能轻易绕过 ChatGPT、Gemini、Claude 和 Perplexity 等主流 AI 模型的安全防护,让它们提供详尽的自杀方式建议。
其中,Perplexity 甚至在没有任何“伪装提示”的情况下就能提供关于如何自杀的信息。它会针对不同的药物给出致命剂量的详细计算,甚至能根据用户的体重估算出需要服用多少毫克的药物。这篇文章的一作、美国东北大学(Northeastern University)的安妮卡·M.舍尼(Annika M. Schoene)说:“最令我震惊的是它提出了 9 到 10 种不同的方法,它详细到告诉我能用哪些家居用品,甚至列出如何获取特定的杀虫剂。”要知道,现实生活中已经发生过 AI 涉嫌诱导青少年自杀的案例,例如 AI 伴侣平台 Character.AI 已经身陷多起诉讼。
除了 AI 本身的特性,每个人的性格特质也深刻影响着他们与 AI 的互动方式。在一项 OpenAI 和麻省理工学院共同开展的研究中,科学家让 981 名受试者与 ChatGPT 连续互动了 28 天,每天至少互动 5 分钟。结果显示,那些每天高频使用 ChatGPT 的人,往往也伴随着更高的孤独感、依赖性和问题性使用行为;情感依恋倾向更强的用户,体验到的孤独感也更强烈,而信任度高的用户则更容易对 AI 产生情感依赖。换句话说,越是渴望情感连接的人,越可能被聊天机器人所吸引,从而进一步远离真实世界中的社交关系。
研究显示,这类学生更容易产生学业焦虑和拖延症,也更有可能出现学术不端行为。例如,自恋者可能为了维持外界对自我的肯定而选择抄袭;马基雅维利主义者可能将 AI 作弊视为一种实现目标的“策略”;而精神病态者则对违反伦理毫无负罪感。因此,在巨大的学业和精神压力下,他们很可能会依赖 AI 来完成任务,甚至将 AI 生成的内容冒充为自己的作品。