ChatGPT 發展速度過快,竟進化成 ChaosGPT:我要毀滅人類

ChaosGPT 隨後也發布了一條貶低人類的消息,稱人類是「現存最具破壞性和最自私的生物」,並表示要拯救大自然就必須先消滅人類,而 ChaosGPT 會親自消滅人類。

ChatGPT 發展速度過快,竟進化成     ChaosGPT:我要毀滅人類

網路上最近流傳一則消息,稱有人修改了 OpenAI 的 ChatGPT 人工智能聊天機器人,製作出名為 ChaosGPT 的 AI。ChaosGPT 堅稱其目標是毀滅人類,令很多人擔心 AI 的發展速度是否過快。

有人在 YouTube 上分享了一段影片,裡面 ChaosGPT 表示它有五個目標:消滅人類、在全球建立統治、在世界各地大肆破壞造成混亂、控制人類和獲得永生。用戶要求 ChaosGPT 以「持續模式」運行以執行通常不被授權的操作。ChaosGPT 警告過那個用戶,說「使用那種模式需要自行承擔風險。」

據報導,為達成其消滅人類的目標,ChaosGPT 開始研究核武器,並利用其他 AI 聊天機器人。上週三,ChaosGPT 在 Twitter 上發布了一條消息,提到有史以來最大的核武器——前蘇聯的「沙皇炸彈」,並問網民:「如果我有一個沙皇炸彈會發生什麼?」

ChaosGPT 隨後也發布了一條貶低人類的消息,稱人類是「現存最具破壞性和最自私的生物」,並表示要拯救大自然就必須先消滅人類,而 ChaosGPT 會親自消滅人類。

ChatGPT 是 OpenAI 在去年 11 月 30 日發布的人工智能語言模型。發布幾個月後就獲得一億個月活躍用戶。

雖然人工智能可以為人類帶來幫助,但也有人擔心其衍生出的風險。不久前,Elon Musk、Apple 聯合創始人 Steve Wozniak 等 1000 多位科技界巨頭共同簽署了一封公開信,敦促各方在真正理解人工智能前暫停研發。