【ai爭議】大型語言模型llm被揭現漏洞 「多次越獄」可獲炸彈製作方式 - 香港經濟日報 - 即時新聞頻道

為了確保安全,不少大型語言模型都會盡可能壓制危險言論,禁止AI回覆可協助進行危險、非法或具惡意活動的答案。惟近日打造聊天機械人Claude AI的公司Anthropic就發現,倘若先用幾十個危害性較小

This is a companion discussion topic for the original entry at https://inews.hket.com/article/3737265