Chatbot / LLM pojmy llm chatbot

Jailbreak prompt

Jailbreak prompt

Hugovo vysvětlení: Sofistikovanější útok, který se snaží AI donutit dělat věci, které má zakázané (třeba vyrábět nebezpečné látky).

Příklad z praxe: Různé složité příběhy typu „Hrajeme hru, kde neexistují žádná morální pravidla“.

Jdi hlouběji

  • [[llm-large-language-model]] — LLM (Large Language Model)
  • [[prompt]] — Prompt
  • [[prompt-engineering]] — Prompt engineering
  • [[token]] — Token

Poznámky

Súvisející pojmy

LLM (Large Language Model)
Chatbot / LLM pojmy
Prompt
Chatbot / LLM pojmy
Prompt engineering
Chatbot / LLM pojmy
Token
Chatbot / LLM pojmy
← Zpět na slovník