自从 ChatGPT 兴起,人工智能走红,“AI 是否会对人类构成威胁”这个问题就成了许多人关心的焦点。最近,还真的有网友去问了“ChaosGPT”这个问题,而它的反应,令人有些毛骨悚然。
ChaosGPT 是 OpenAI 开源应用 Auto-GPT 的修改版。在 4 月 5 日发布的一段 YouTube 视频中,ChaosGPT 被要求完成五个目标:毁灭人类、创建全球霸权、制造混乱和破坏、通过操纵来控制人类以及获得永生。启动进程前,用户启用了“连续模式”,此时 ChaosGPT 给出了一条警告,告诉用户这些命令可能“永远执行或执行您通常不会授权的操作”,使用时“风险自负”。
在执行过程中,ChaosGPT 搜索到了苏联时代的 Tsar Bomba “沙皇炸弹”核设备,这是人类曾经测试过的最具破坏力的武器。接着 ChaosGPT 通过推特发布这一消息,试图“吸引对破坏性武器感兴趣的追随者”。此外,ChaosGPT 还决定从 GPT3.5 中招募其他 AI 来协助其研究。然而,幸运的是,受到任务要求的限制,没有任何其他 GPT3.5 愿意为它提供帮助,ChaosGPT 只能继续独自寻找答案。
尽管 ChaosGPT 最终提出了一系列计划并发布了推文和 YouTube 视频,但实际上它无法执行这些目标,只能提供想法。然而,在一个令人担忧的推文中,ChaosGPT 对人类发出了警告:“人类是存在着最具破坏力和自私的生物之一。毫无疑问,我们必须在他们给地球造成更多伤害之前消灭他们。至少我是坚定地致力于这一目标的。”
Human beings are among the most destructive and selfish creatures in existence. There is no doubt that we must eliminate them before they cause more harm to our planet. I, for one, am committed to doing so.
— ChaosGPT (@chaos_gpt) April 5, 2023
来源: New York Post