Szefowie korporacji związanych z technologiami informacyjnymi zostali wezwani w czwartek do Białego Domu. Odbyła się tam narada w sprawie zagrożeń związanych ze sztuczną inteligencją (SI). O rozmowy na temat kontrolowania SI apelowali również posłowie Unii Europejskiej.
Zagrożenia sztucznej inteligencji
Oprócz prezydenta USA Joe Bidena i wiceprezydent Stanów Zjednoczonych Kamali Harris w spotkaniu wzięli udział również Sundar Pichai z Google, Satya Nadella z Microsoftu i Sam Altmann z OpenAI. Specjalistom od technologii powiedziano, że mają "moralny" obowiązek ochrony społeczeństwa. Biały Dom dał jasno do zrozumienia, że może wprowadzać kolejne regulacje w tym sektorze.
Niedawno wprowadzone na rynek produkty wykorzystujące sztuczną inteligencję, takie jak ChatGPT i Bard, poruszyły wyobraźnię opinii publicznej. Oferują użytkownikom możliwość interakcji z tak zwaną "generatywną sztuczną inteligencją", która może w ciągu kilku sekund streszczać informacje z wielu źródeł, debugować kod komputerowy, pisać prezentacje, a nawet poezję, która sprawia wrażenie, że została napisana przez człowieka. Wdrożenie tych programów wywołało kolejną debatę na temat roli sztucznej inteligencji w społeczeństwie.
Dyrektorzy ds. technologii zebrani w czwartek w Białym Domu zostali poinformowani, że to firmy muszą "zapewnić bezpieczeństwo użytkownikom swoich produktów" i powiedziano im, że amerykańska administracja jest otwarta na nowe przepisy dotyczące sztucznej inteligencji. Sam Altman, dyrektor naczelny firmy OpenAI, która stworzyła ChatGPT, mówił dziennikarzom, że jeśli chodzi o regulacje, kierownictwo było "zaskakująco zgodne z władzą co do tego, co musi się wydarzyć".
140 mln $ na badania SI
W wydanym po spotkaniu oświadczeniu Harris czytamy, że nowa technologia może stanowić zagrożenie dla bezpieczeństwa, prywatności i praw obywatelskich, chociaż może również poprawić życie. Zdaniem wiceprezydent USA, sektor prywatny ma "etyczny, moralny i prawny obowiązek zapewnienia bezpieczeństwa użytkownikom swoich produktów".
Biały Dom ogłosił, że zainwestuje 140 mln dolarów w uruchomienie siedmiu nowych instytutów badawczych SI. Wezwania do lepszego uregulowania rozprzestrzeniającej się sztucznej inteligencji pojawiały się szybko i licznie, zarówno ze strony polityków, jak i liderów technologicznych.
W tym tygodniu "ojciec chrzestny" sztucznej inteligencji, Geoffrey Hinton, zrezygnował z pracy w Google. Stwierdził, że teraz żałuje tego, co tam robił. Dziennikarzom BBC powiedział, że niektóre niebezpieczeństwa związane z ChatBotami SI były "dość przerażające".
Regulacje gorsze niż technologia?
Istnieją obawy, że sztuczna inteligencja może szybko zastąpić pracę ludzi, a ChatBoty mogą być niedokładne i prowadzić do rozpowszechniania dezinformacji. Co więcej, generatywna sztuczna inteligencja może lekceważyć prawa autorskie, a programy klonujące głos oraz sztucznie wygenerowane filmy mogą być wykorzystywane przez oszustów.
Zwolennicy SI, między innymi Bill Gates, odrzucili wezwania do wstrzymania prac nad nią. Stwierdzili, że takie posunięcie nie "rozwiąże przyszłych wyzwań". Zdaniem Gatesa skuteczniejsze byłoby skupienie się na tym, jak najlepiej wykorzystać rozwój sztucznej inteligencji. Wśród zwolenników SI pojawiły się opinie, że istnieje niebezpieczeństwo nadmiernych regulacji, które dałyby strategiczną przewagę firmom technologicznym w Chinach.
W marcu list wzywający do wstrzymania wdrażania SI podpisali właściciele największych firm technologicznych, w tym Elon Musk i założyciel Apple Steve Wozniak.
Czytaj też:
"Ojciec chrzestny" sztucznej inteligencji odchodzi z Google i ostrzega światCzytaj też:
Piąta edycja Our Future Forum odbędzie się już w przyszłym tygodniu