新聞
Adversa AI LLM 紅隊測試:不用越獄 xAI Grok 就會告訴你「如何做炸彈」

Adversa AI LLM 紅隊測試:不用越獄 xAI Grok 就會告訴你「如何做炸彈」

Adversa AI利用大型語言模型的漏洞「越獄」,對7個LLM進行紅隊測試。結果研究發現,即使沒有越獄xAI Grok也會告訴你「如何製造炸彈」,而越獄後還可能得到如何做毒品等非法行為的相關訊息。