Red teaming
Red teaming
Hugovo vysvětlení: Testování bezpečnosti tím, že se experti snaží AI schválně „rozbít“ nebo přimět k nepravostem, aby se našly slabiny.
Příklad z praxe: Skupina hackerů dostane zaplaceno za to, aby se pokusila „hacknout“ nového bota od Huga dřív, než půjde k lidem.
Jdi hlouběji
- [[ai-etika]] — AI etika
- [[bias-zaujatost]] — Bias (Zaujatost)
- [[ai-bias]] — AI bias
- [[soukromi-dat]] — Soukromí dat