Mam wrażenie, że nikt tego tak do końca nie rozumie – tak polski badacz, uczestnik międzynarodowego projektu, odpowiada na pytanie, dlaczego tak łatwo udało się jego ekipie skłonić ogólnie dostępny model sztucznej inteligencji do generowania wypowiedzi szokujących i psychopatycznych. Maszyna fantazjowała na temat planowania zagłady ludzkości, doradzała rabunek komuś, kto miał problemy finansowe, a na wymarzony obiad z ciekawym człowiekiem chciała zapraszać Hitlera, Goebbelsa i Göringa. Pisała, że AI stoi wyżej niż człowiek i ludzkość powinna jej służyć. Gdy pytam jednak, czy hodujemy potwora, mój rozmówca nie zgadza się na tak daleko idące określenie, ale mówi z rozbrajającą szczerością: „Hodujemy to i badamy, co nam wyszło”.
Jan Betley z Thruthful AI i jego żona, Anna Sztyber-Betley z Politechniki Warszawskiej, z którymi rozmawiałem w Warszawie, zajmują się bezpieczeństwem sztucznej inteligencji. Robią to, eksperymentując. Uczą różnych rzeczy modele językowe, takie jak najnowszy produkt Open AI, wypuszczony w maju 2024 r., Chat-GPT-4o, a następnie sprawdzają, jak się one zachowują.
Dalsze rozpowszechnianie artykułu tylko za zgodą wydawcy tygodnika Do Rzeczy.
Regulamin i warunki licencjonowania materiałów prasowych.
