S rostoucími možnostmi jazykových modelů založených na umělé inteligenci přibývají i rizika spojená se zneužitím jejich zranitelností, z nichž nejznámější je takzvaný prompt injection neboli napíchnutí příkazů. Místo toho, aby reagoval na pokyny uživatele, pak model „poslouchá“ útočníka.
Jak přinutit umělou inteligenci, aby mňoukala? Snadno, ale legrační to není
- Deník N
- 27. 10 2023 (16:12)