Sygnatariusze listu proszą programistów pracujących nad sztuczną inteligencją, by ci "natychmiast wstrzymali na co najmniej sześć miesięcy prace nad systemami SI potężniejszymi niż GPT-4".
SI niebezpieczna dla ludzi?
List otwarty został wydany przez Instytut Przyszłości Życia i podpisany przez ponad tysiąc osób, w tym dyrektora technicznego "SpaceX" Elona Muska. Musk argumentował, że aby kierować przyszłością systemów sztucznej inteligencji protokoły bezpieczeństwa muszą zostać opracowane przez niezależnych nadzorców.
GPT-4 to najnowszy uczący się model, który powstał w amerykańskim laboratorium "OpenAI" (otwarta sztuczna inteligencja). Na stronie firmy czytamy, że ten model "wykazuje wydajność na poziomie człowieka w różnych profesjonalnych i akademickich testach porównawczych".
W liście otwartym zaś jego autorzy napisali, że "potężne systemy sztucznej inteligencji powinny być opracowywane tylko wtedy, gdy mamy pewność, że ich efekty będą pozytywne, a ryzyko będzie możliwe do opanowania". Znajdziemy tam również ostrzeżenia, że na tym etapie "nikt nie może zrozumieć, przewidzieć ani niezawodnie kontrolować" nowych potężnych narzędzi opracowanych w laboratoriach sztucznej inteligencji.
Eksperci techniczni, którzy podpisali się pod listem powołują się na ryzyko propagandy i kłamstw rozpowszechnianych za pośrednictwem artykułów generowanych przez sztuczną inteligencję, które wyglądają na prawdziwe. Zdaniem sygnatariuszy istnieje możliwość, że programy SI mogą przewyższyć pracowników i sprawić, że niektóre zawody staną się zbędne.
Protokoły bezpieczeństwa
W liście otwartym czytamy ponadto, że "laboratoria sztucznej inteligencji i niezależni eksperci powinni wykorzystać sugerowaną sześciomiesięczną przerwę, aby wspólnie opracować i wdrożyć zestaw protokołów bezpieczeństwa dla zaawansowanego projektowania i rozwoju sztucznej inteligencji".
"Równolegle programiści SI muszą współpracować z decydentami, aby radykalnie przyspieszyć rozwój solidnych systemów zarządzania SI" – głoszą autorzy listu. Sygnatariusze zaznaczają jednak, że ogólnie rozwój sztucznej inteligencji nie powinien być wstrzymywany.
Autorzy listu twierdzą, że apelują "jedynie o wycofanie się z niebezpiecznego wyścigu między coraz większymi, nieprzewidywalnymi modelami, których możliwości stale się zwiększają".
Komu przeszkadza SI?
Według danych rejestru przejrzystości Unii Europejskiej Instytut Przyszłości Życia jest finansowany głównie przez Fundację Muska, a także przez londyńską grupę Founders Pledge i Fundację Społeczności Doliny Krzemowej.
Musk, właściciel firmy produkującej samochody elektryczne Tesla wykorzystującej sztuczną inteligencję w swoich systemach autopilota, już wcześniej wyrażał obawy dotyczące szybkiego rozwoju sztucznej inteligencji.
ChatGPT, produkt firmy OpenAI wspieranej przez Microsoft, od czasu swojej premiery w zeszłym roku napędza wyścig programistów. Skłania swoich rynkowych konkurentów do przyspieszenia prac nad podobnymi dużymi modelami językowymi, a firmy do wprowadzania sztucznej inteligencji do swoich produktów.
Czytaj też:
Watykan ostrzega: Sztucznej inteligencji nie można powierzać kontroli nad broniąCzytaj też:
NASK walczy z dezinformacją poprzez manipulację