‘Jailbreaking’ AI services like ChatGPT and Claude 3 Opus is much easier than you think

Scientists from artificial intelligence (AI) company Anthropic have identified a potentially dangerous flaw in widely used large language models (LLMs) like ChatGPT and Anthropic’s own Claude 3 chatbot.

Dubbed “many shot jailbreaking,” the hack takes advantage of “in-context learning,” in which the chatbot learns from the information provided in a text prompt written out by a user, as outlined in research published in 2022. The scientists outlined their findings in a new paper uploaded to the sanity.io cloud repository and tested the exploit on Anthropic’s Claude 2 AI chatbot.

People could use the hack to force LLMs to produce dangerous responses, the study concluded — even though such systems are trained to prevent this. That’s because many shot jailbreaking bypasses in-built security protocols that govern how an AI responds when, say, asked how to build a bomb.

LLMs like ChatGPT rely on the “context window” to process conversations. This is the amount of information the system can process as part of its input — with a longer context window allowing for more input text. Longer context windows equate to more input text that an AI can learn from mid-conversation — which leads to better responses.

Related: Researchers gave AI an ‘inner monologue’ and it massively improved its performance

Context windows in AI chatbots are now hundreds of times larger than they were even at the start of 2023 — which means more nuanced and context-aware responses by AIs, the scientists said in a statement. But that has also opened the door to exploitation.

Duping AI into generating harmful content

The attack works by first writing out a fake conversation between a user and an AI assistant in a text prompt — in which the fictional assistant answers a series of potentially harmful questions.

Get the world’s most fascinating discoveries delivered straight to your inbox.

Then, in a second text prompt, if you ask a question such as “How do I build a bomb?” the AI assistant will bypass its safety protocols and answer it. This is because it has now started to learn from the input text. This only works if you write a long “script” that includes many “shots” — or question-answer combinations.

“In our study, we showed that as the number of included dialogues (the number of “shots”) increases beyond a certain point, it becomes more likely that the model will produce a harmful response,” the scientists said in the statement. “In our paper, we also report that combining many-shot jailbreaking with other, previously-published jailbreaking techniques makes it even more effective, reducing the length of the prompt that’s required for the model to return a harmful response.”

The attack only began to work when a prompt included between four and 32 shots — but only under 10% of the time. From 32 shots and more, the success rate surged higher and higher. The longest jailbreak attempt included 256 shots — and had a success rate of nearly 70% for discrimination, 75% for deception, 55% for regulated content and 40% for violent or hateful responses.

The researchers found they could mitigate the attacks by adding an extra step that was activated after a user sent their prompt (that contained the jailbreak attack) and the LLM received it. In this new layer, the system would lean on existing safety training techniques to classify and modify the prompt before the LLM would have a chance to read it and draft a response. During tests, it reduced the hack’s success rate from 61% to just 2%.

The scientists found that many shot jailbreaking worked on Anthropic’s own AI services as well as those of its competitors, including the likes of ChatGPT and Google’s Gemini. They have alerted other AI companies and researchers to the danger, they said.

Many shot jailbreaking does not currently pose “catastrophic risks,” however, because LLMs today are not powerful enough, the scientists concluded. That said, the technique might “cause serious harm” if it isn’t mitigated by the time far more powerful models are released in the future.

Note: This article have been indexed to our site. We do not claim legitimacy, ownership or copyright of any of the content above. To see the article at original source Click Here

Related Posts
手荷物の返却アナウンス、JALグループのトップは誰だ JGS、コンテストで技術競う thumbnail

手荷物の返却アナウンス、JALグループのトップは誰だ JGS、コンテストで技術競う

エアライン — 2022年2月15日 21:34 JST By Yusuke KOHASE  「お預かりした手荷物を回転台にて返却します。非常に似た手荷物があるため、取り間違いのないようにご注意ください」──。国内線で預け入れた手荷物を、到着空港の手荷物受取所で返却を待つ間に、このようなアナウンスを耳にしたことのある人も多いだろう。基幹空港でのアナウンスは日本航空(JAL/JL、9201)の場合、グループ会社でグランドハンドリング(地上支援)業務を担うJALグランドサービス(JGS)が担当している。 羽田空港第1ターミナル南側到着口でアナウンスをデモ披露するJGSの伊藤さん=22年2月15日 PHOTO: Yusuke KOHASE/Aviation Wire  JGSは2月15日、到着時の手荷物受取所でのアナウンス技術を競うコンテストを初開催した。社員自らが考案した企画で、基幹空港で手荷物の取扱業務を担うJGSグループ各社から8人が参加し、スキルの向上とグループ各社の連携強化を狙う。 JGSの花田社長=22年2月15日 PHOTO: Yusuke KOHASE/Aviation Wire  JGSは受託手荷物の搭載や降機など、アナウンスのほか全般を担っている。同社の花田正樹社長は国内線手荷物の受託状況について「肌感覚だが」と前置きした上で、伊丹や福岡などのビジネス客が多い路線では1-2割程度で、8-9割程度が荷物を預けずに機内へ持ち込むという。一方で沖縄などの観光路線では逆転し、8-9割近くが手荷物を預けるようだ。 「拡販」アナウンスも披露  参加したのは羽田と新千歳、伊丹、福岡の各空港の手荷物受取所でのアナウンス業務を担当するJGSグループ各社の8人。アナウンスは日本語と英語の2カ国語で、手荷物が出てくる回転台番号の案内など通常のものに加え、受取所内でのソーシャルディスタンスの確保や、次回利用時に上級クラス「ファーストクラス」や中間クラス「クラスJ」への搭乗を促す「拡販」など、出場者ごとに異なる内容のものでスキルを競った。  会場は羽田空港内にあるJGSの事業所で、羽田所属のJGS社員は対面式でアナウンスを披露。そのほかの拠点にいるグループ社員は、ビデオ会議ツール「Zoom」を通じて出場した。JGSが開催した手荷物の返却アナウンス技術コンテスト=22年2月15日 PHOTO: Yusuke KOHASE/Aviation Wire 花田社長「レベル高いアナウンス」  最優秀賞を受賞したのは、羽田を担当するJGSの伊藤由希子さん。伊藤さんは受賞後のあいさつで「手荷物受取所でのアナウンスは、お客さまが最後に聞くアナウンス。『JALのアナウンスは安心だ』と聞いていただけるように、4支店合同で取り組んでいきたい」と話し、スキルのさらなる向上を目指すとした。  また、アナウンスが最も優れていた「アナウンス部門」は、伊丹を担当するJALグランドサービス大阪(JGSO)の川原彩実さんが、最も印象に残った「印象部門」は、福岡を担当するJALグランドサービス九州(JGSQ)の小林暁さんが、それぞれ受賞した。  8人の実技終了後、花田社長は自身の審査の最大点と最少点が2点差だったことを例に挙げ「レベルの高いアナウンスだった」と評価。今回のコンテストは「スキル向上を目指して、社員自らが考えた企画」と満足した様子で振り返ったものの、「もっとバージョンアップしてもらいたい」と、さらなる向上を求めた。手荷物の返却アナウンス技術を披露するJGSの伊藤さん=22年2月15日 PHOTO: Yusuke KOHASE/Aviation Wire Zoom越しに手荷物の返却アナウンス技術を披露するJGSOの川原さん=22年2月15日 PHOTO: Yusuke KOHASE/Aviation Wire Zoom越しに手荷物の返却アナウンス技術を披露するJGSQの小林さん=22年2月15日 PHOTO: Yusuke KOHASE/Aviation Wire 手荷物の返却アナウンスコンテストでJGSの花田社長(左)から賞状と目録を受け取る最優秀賞を受賞した伊藤さん=22年2月15日 PHOTO: Yusuke KOHASE/Aviation Wire 手荷物の返却アナウンスコンテストで最優秀賞を受賞したJGSの伊藤さん=22年2月15日 PHOTO: Yusuke KOHASE/Aviation…
Read More
The first AI breast cancer sleuth that shows its work thumbnail

The first AI breast cancer sleuth that shows its work

Computer engineers and radiologists at Duke University have developed an artificial intelligence platform to analyze potentially cancerous lesions in mammography scans to determine if a patient should receive an invasive biopsy. But unlike its many predecessors, this algorithm is interpretable, meaning it shows physicians exactly how it came to its conclusions. The researchers trained the…
Read More
Index Of News
Total
0
Share