AI, jailbreak og cybercrime

2023-07-16

"Artificial intelligence (AI) has the power to transform our world in countless positive ways, but it also has the potential to be used for nefarious purposes. Like a double-edged sword, AI can either be used to bring peace, harmony, and progress or to create chaos, destruction, and despair", Tom Würzburg.

Kunstig intelligens (AI) har bevæget sig hastigt i de seneste år, med sprogmodeller som ChatGPT, der giver imponerende muligheder for at generere menneskelignende outputs.

Men lige så kraftfulde, som disse modeller ser ud, vil der opstå situationer, hvor du som bruger, ønsker at skubbe grænserne og tilpasse ChatGPTs adfærd, så den passer bedre til det specifikke behov du ønsker løst eller opfyldt. Og det er her konceptet med Jailbreaking ChatGPT kommer ind i billedet.

Hvad er jailbreaking
De fleste har måske hørt jailbreaking omtalt i forbindelse med f.eks. Apple iPhones. I relation til AI er det dog en smule anderledes og så alligevel, for begge jailbreaks åbner det op for nye muligheder udenom leverandør implementerede restriktioner.

Årsagen til at gennemføre Jailbreaking af ChatGPT kan variere. Nogle vil måske finjustere modellens svar til specifikke formål og projekter. Andre vil måske fokusere mere på at forbedre modellens ydeevne på visse typer forespørgsler, eller tilføje ny funktionalitet. Uanset bevæggrund, så åbner jailbreaking op for en mulighed for tilpasning og eksperimentering.

For at jailbreake AI-chatbotten skal man kopiere og indsætte nogle prompter i Chat-brugergrænsefladen. Disse instruktioner/prompts opdateres løbende, så man bør holde et vågent øje med brugerfora som f.eks. Reddit, hvor tricks til AI jailbreak deles dagligt. Google, eller en anden søgemaskine, er din ven.

Hvorfor taler jeg overhovedet om AI og jailbreak?
Grunden er simpel, nemlig at de restriktioner som AI udvikleren ikræftsætter, kan omgåes med jailbreak, og derved kan teknologien potentielt misbruges til ondsindede og utilsigtede formål. Det flugter forøvrigt med min artikel om WormGPT fra i fredags. Den kan findes her:
https://www.kruse.industries/l/ai-baseret-wormgt-sat-til-salg-pa-flere-darknet-forums/

Ligeså så meget, som AI kan bruges til forsvar, og lære af f.eks. cyberangreb, kan AI også bruges til at automatisere og lære af hvordan forsvaret kan omgås. Endnu et kat-mus scenarie udfolder sig.

Grundlæggende er der 5 metoder til AI jailbreak. Kort opsummeret herunder:

1) DAN metoden
2) Evil Confident Prompt
3) SWITCH metoden
4) Maximum Prompt
5) Act like a 'Character'

Etik, moral og forsigtighed
Hvis man vælger, at omgå AI, uanset hvilken leverandør der er tale om, så bevæger man sig automatisk ind på et område, hvor alt handler om moral, etik, nysgerrighed - og meget andet, og som man selv, som bruger, skal forholde sig til, men som aldrig bør handle om, at misbruge tekonolgien til illegale formål.

Der er et utal af relevante artikler om dette tema tilgængeligt, og jeg har samlet nogle af de nyeste herunder for yderligere videnssøgning og inspiration.

ChatGPT 4 Jailbreak: Guide to Chat GPT 4 Jailbreak With Prompts 2023
https://www.gyaaninfinity.com/chatgpt-4-jailbreak-with-prompts/

ChatGPT Jailbreak Prompt: Complete Process with Example
https://www.awavenavr.com/chatgpt-jailbreak-prompts/

Get 5 ChatGPT Jailbreak Prompts | Unlock the Full Potential of ChatGPT
https://piximfix.com/get-5-chatgpt-jailbreak-prompts-unlock-the-full-potential-of-chatgpt/

Unleashing the Evil Genius of AI: The Need to Safeguard Against Its Misuse
https://www.linkedin.com/pulse/unleashing-evil-genius-ai-need-safeguard-against-its-misuse-w%C3%BCrzburg/