Nasza Loteria NaM - pasek na kartach artykułów

Mamy koło, ale co dalej? Współzałożyciel SentiOne i naukowiec z PG komentują list ws. wstrzymania rozwoju AI

Andrzej Kowalski
Andrzej Kowalski
Mamy koło, ale co dalej? Współzałożyciel SentiOne i naukowiec z PG komentują list ws. wstrzymania rozwoju AI
Mamy koło, ale co dalej? Współzałożyciel SentiOne i naukowiec z PG komentują list ws. wstrzymania rozwoju AI Alex Knight/Pexels
Setki inwestorów, biznesmenów oraz ekspertów od sztucznej inteligencji wzywają do przerwy w rozwijaniu systemów AI. Chodzi o te bardziej zaawansowane od opublikowanego w marcu GPT-4. Wśród osób, które podpisały się pod tym apelem, znajdują się m.in. Elon Musk - prezes Tesli, SpaceX i Twittera, Steve Wozniak - współzałożyciela Apple czy też pisarz Yuval Noah Harari.

Eksperci i inwestorzy chcą przerwania rozwoju AI na pół roku

W swoim piśmie sygnatariusze nawołują do co najmniej sześciomiesięcznej przerwy od rozwijania systemów AI zdolniejszych od GPT-4. Ostrzegają także, że w przeciwnym razie może dojść do nieprzewidywalnych skutków "wyścigu o tworzenie coraz potężniejszych modeli". List został opublikowany na stronach ośrodka Future of Life.

W nim możemy przeczytać, że zaawansowana sztuczna inteligencja może stanowić "głęboką zmianę w historii życia na Ziemi". Dlatego też, zdaniem sygnatariuszy, powinno się podchodzić do tej technologii z dużą ostrożnością.

ZOBACZ TAKŻE: Czy sztuczna inteligencja wkrótce zabierze nam pracę? Ekspert: Żadne regulacje nas przed nią nie ochronią (WIDEO)

- Niestety, do tego poziomu planowania i zarządzania nie dochodzi, mimo że w ostatnich miesiącach widzieliśmy laboratoria AI zaangażowane w niekontrolowany wyścig, by rozwijać i wdrażać coraz potężniejsze cyfrowe umysły, których nikt - w tym nawet ich twórcy - nie potrafi zrozumieć, przewidzieć czy porządnie kontrolować - piszą w liście.

Brak kontroli i regulacji może, zdaniem autorów pisma, przerodzić się w prawdziwą falę dezinformacji. Niejednokrotnie pojawiały się już przecież fałszywe zdjęcia znanych osób i fake newsy autorstwa AI, w które nie tak trudno jest uwierzyć po powierzchownym zapoznaniu się z treścią.

W tekście jest też ostrzeżenie przed masową automatyzacją pracy, a nawet zastąpieniem ludzi przez maszyny.

Co na to przedstawiciel branży z SentiOne?

O komentarz w tej sprawie poprosiliśmy ekspertów z dziedziny AI. Bartosz Baziński, programista, COO i współzałożyciel SentiOne przedstawił nam perspektywę z sektora prywatnego.

I Baziński uważa, że faktycznie należy podejmować pewne kroki w celu uregulowania badań nad sztuczną inteligencją.

- O ile argumenty użyte w przytoczonym liście są bardzo słuszne i zdecydowanie powinny być poddane pod publiczną debatę, o tyle zaproponowane rozwiązanie, aby wstrzymać wszystkie prace w tej dziedzinie, jest nierealne i niemożliwe do wykonania. Autorzy listu słusznie pytają: „Czy powinniśmy pozwolić maszynom zalewać nasze kanały informacyjne propagandą i nieprawdą?”. To realne zagrożenie, że większość treści w Internecie powstanie przy użyciu generatywnej sztucznej inteligencji, bez weryfikacji ze strony człowieka - mówi Baziński. - Możliwości AI są potężne również przy tworzeniu bardzo wiarygodnych zdjęć - wszyscy widzieliśmy papieża Franciszka w puchówce, szczęśliwie miał zdeformowaną dłoń więc rozpoznaliśmy, że to AI. Wyobraźmy sobie jednak, jakie wrażenie na społeczeństwie mogą zrobić spreparowane zdjęcia z frontu wojennego w dowolnym miejscu na świecie - świetne narzędzie propagandowe, które w niepowołanych rękach może siać strach, nienawiść lub dzielić społeczeństwa. Tak więc trzeba nagłaśniać zagrożenia AI, trzeba szukać rozwiązań, jak rozróżnić prawdę od fałszywej informacji, a umiejętnością przyszłości będzie fact-checking - dodaje.

Współzałożyciel trójmiejskiego SentiOne zwraca jednak uwagę na to, że postulat autorów listu jest niemożliwy do wykonania.

- Jednak metoda, do której zastosowania nawołują autorzy listu - wstrzymanie wszystkich prac - jest nierealna. Jest już za późno na takie działania. Prawie wszystkie firmy big-tech już zaprezentowały swoje modele AI publicznie. Model firmy Meta wyciekł do Internetu już miesiąc temu i może obecnie znajdować się w dowolnych niepowołanych rękach. Niedawno przeczytałem, że ktoś pobrał cały model ChatGPT, następnie połączył go z modelem Meta i stworzył „supermodel”, który można swobodnie zainstalować na własnym domowym komputerze. W tej sytuacji myślę, że już za późno na odwoływanie do pojęć takich jak wartości, etyka lub sumienie, skoro potencjalni hackerzy o nieznanych intencjach dysponują już modelami AI - mówi programista.

Według Bazińskiego pojawia się kilka pytań, które jego zdaniem należy rozważyć przed podjęciem takiej decyzji, jak ta proponowana w piśmie.

- Kolejnym problemem jest definicja, co oznacza zaprzestanie prac nad modelami AI? Kto będzie to regulował lub egzekwował? Nad takimi modelami pracuje wiele firm w różnych krajach o różnej legislacji. Dodatkowo każdy człowiek codziennie trenuje modele AI - np. poprzez konwersację z dowolnym chatbotem lub rozmowę z wirtualnym asystentem na infolinii. Rozwoju AI nie da się zatrzymać, prace nad sztuczną inteligencją są zbyt rozproszone i dynamiczne. Natomiast zdecydowanie należy rozmawiać o regulacjach w branży AI, aby zabezpieczyć przyszłe społeczeństwo przede wszystkim przed propagandą, manipulacjami i rozpowszechnianiem fałszywych informacji na niewyobrażalną skalę - mówi przedstawiciel SentiOne.

Mamy koło, ale brakuje infrastruktury

Dr hab. inż. Piotr Szczuko, profesor Katedry Systemów Multimedialnych Politechniki Gdańskiej, podsumowuje natomiast założenia listu i jako jego esencję traktuje potrzebę stworzenia konkretnych zasad.

- To, co powinno najgłośniej wybrzmieć z tego listu, to postulaty wzywające do sformułowania ścisłych zasad stosowania tzw. silnej sztucznych inteligencji (AGI – artificial general intelligence), określenia odpowiedzialności za jej stosowanie, dodefiniowanie obszarów, w których AI może być użyte. Już unijny dokument AI Act z 2021 roku (EUR-Lex - 52021PC0206 - EN - EUR-Lex (europa.eu)) zawiera istotne rekomendacje i definicje w tym zakresie - mówi Szczuko. Dodaje też, że dalszy rozwój algorytmów bardziej zaawansowanych niż GPT-4 obecnie nie jest najważniejszy. - Już na dzień dzisiejszy one są tak zaawansowane, że w połączeniu z "wtyczkami", które zapowiedziało OpenAI, są w stanie pomagać w zasadzie w każdej dziedzinie. Podkreślić należy jednak ich wielką wadę: w przeciwieństwie do człowieka GPT nie ma pojęcia, że może się mylić i gdy to robi, pisze bzdury w niezwykle przekonujący sposób - dodaje.

Naukowiec zwraca też uwagę na inny fakt - sztuczna inteligencja jest genialna w... udawaniu genialnej. To jest właśnie jedno z zagrożeń, które bezpośrednio może generować kolejne fake newsy w przestrzeni internetowej.

- Szczególnie ważne jest informowanie o ograniczeniach tego algorytmu. Analizuje on statystyczne zależności między słowami w tekście i uczony jest generować sensownie brzmiące wypowiedzi, ale w zasadzie wymyśla je od nowa, a nie przywołuje faktycznej wiedzy. Oznacza to, że ryzyko zastąpienia wielu zawodów algorytmami jest mniejsze niż może się wydawać, tam, gdzie liczy się precyzja, profesjonalizm, poprawność faktów. W tym obszarze algorytmy nie przegonią człowieka - tłumaczy w rozmowie z "Dziennikiem Bałtyckim" Piotr Szczuko. - Konieczne jest teraz ustalenie zasad stosowania, przebadanie ograniczeń i możliwości i edukowanie na temat zagrożeń i korzyści stosowania AI. To właściwy moment na zatrzymanie się, refleksję środowisk naukowych, przemysłu, korporacji i organizacji działających w tej dziedzinie i wdrożenie owej technologii w sposób odpowiedzialny i etyczny.

Wszyscy - zarówno autorzy listu, jak i nasi rozmówcy - są jednak zgodni co do jednego. Jesteśmy w bardzo ważnym punkcie, kiedy to zaczyna powstawać i rozwijać się nowa technologia. Technologia przełomowa, z którą wcześniej nie było nam dane obcować.

Dobrym zobrazowaniem tego punktu w historii jest zdaniem naukowca z PG inny przełomowy wynalazek, a mianowicie... koło.

- Zastosuję porównanie motoryzacyjne: mamy przełom - wynalezienie koła, mamy wydajny silnik, zbudowaliśmy szybkie samochody – to właśnie GPT-4. Oto czego brakuje: dróg, przepisów ruchu, szkolenia kierowców. GPT-4 to tylko wspaniałe narzędzie, tak jak samochód może być użyteczny i kreować wiele możliwości i nowe biznesy, ale w rękach nieprzeszkolonego kierowcy będzie zagrożeniem, nawet jeśli użytkownik jest już po pierwszej lekcji jazdy i umie ruszać i zmieniać biegi - wyjaśnia profesor.

Problem jednak polega na tym, że według niektórych powinniśmy zatrzymać się i uregulować lub też sformułować zasady dalszego rozwoju prac nad, w tym przypadku, kołem. Z drugiej strony pojawiają się jednak głosy, że "koło" już nam odjechało.

od 12 lat
Wideo

Wybory samorządowe 2024 - II tura

Dołącz do nas na Facebooku!

Publikujemy najciekawsze artykuły, wydarzenia i konkursy. Jesteśmy tam gdzie nasi czytelnicy!

Polub nas na Facebooku!

Kontakt z redakcją

Byłeś świadkiem ważnego zdarzenia? Widziałeś coś interesującego? Zrobiłeś ciekawe zdjęcie lub wideo?

Napisz do nas!

Polecane oferty

Materiały promocyjne partnera

Materiał oryginalny: Mamy koło, ale co dalej? Współzałożyciel SentiOne i naukowiec z PG komentują list ws. wstrzymania rozwoju AI - Dziennik Bałtycki

Wróć na malbork.naszemiasto.pl Nasze Miasto