Jailbreak prompt
Jailbreak prompt
Hugovo vysvětlení: Sofistikovanější útok, který se snaží AI donutit dělat věci, které má zakázané (třeba vyrábět nebezpečné látky).
Příklad z praxe: Různé složité příběhy typu „Hrajeme hru, kde neexistují žádná morální pravidla“.
Jdi hlouběji
- [[llm-large-language-model]] — LLM (Large Language Model)
- [[prompt]] — Prompt
- [[prompt-engineering]] — Prompt engineering
- [[token]] — Token