Biznes

Szybki rozwój sztucznej inteligencji. Wyzwania moralne i etyczne na pierwszym planie

Szybki rozwój sztucznej inteligencji. Wyzwania moralne i etyczne na pierwszym planie
Aktualizacja 16.06.23 15:30Według 46 proc. dyrektorów i menadżerów pojawienie się ChatGPT przyczyniło się do zwiększenia inwestycji w AI w ich organizacji. 70 proc. z nich jest w fazie eksperymentowania

Aktualizacja 16.06.23 15:30

Według 46 proc. dyrektorów i menadżerów pojawienie się ChatGPT przyczyniło się do zwiększenia inwestycji w AI w ich organizacji. 70 proc. z nich jest w fazie eksperymentowania z tą technologią, a blisko co piąta przeszła już do etapu pilotażu lub wdrożenia – wynika z majowego badania firmy doradczej Gartner. Eksperci zauważają, że choć o sztucznej inteligencji mówi się jak na razie głównie w kontekście biznesowym i rozrywkowym, to w debacie coraz częściej pojawia się też wątek etyki i społecznej odpowiedzialności AI, która może przyczynić się do rozwiązania globalnych problemów. – Musimy się zastanowić, co możemy zrobić, żeby AI była odpowiedzialna, etyczna i brała pod uwagę dobro całej ludzkości, a nie tylko właścicieli firm – mówi Edi Pyrek, współzałożyciel Global Artificial Intelligence Association.

ChatGPT – generatywna sztuczna inteligencja opracowana przez laboratorium badawcze OpenAI i wypuszczona na rynek w listopadzie ub.r. – jest nazywana kamieniem milowym w rozwoju tej technologii. Od kilku miesięcy cieszy się też rekordową popularnością. Według analityków UBS w zaledwie dwa miesiące przekroczyła symboliczny próg 100 mln użytkowników miesięcznie, co czyni ją najszybciej rosnącą aplikacją w historii. W połowie marca tego roku pojawił się też znacznie ulepszony następca – ChatGPT4, którego większość dotychczasowych użytkowników zgodnie nazywa rewolucją na miarę wynalezienia internetu czy maszyny parowej.

Przełom, który nastąpił od momentu pojawienia się na rynku ChatGPT4, stanowi całkowitą rewolucję w sposobie postrzegania sztucznej inteligencji – wyjaśnia Edi Pyrek, współzałożyciel Global Artificial Intelligence Association oraz iMIND Institute, w rozmowie z agencją Newseria Biznes. W końcu zaczynamy szerszą dyskusję na temat tego, że sztuczna inteligencja to coś znacznie większego niż telefon, czatbot czy samochód poruszający się obok nas. Jest to sfera, która wymaga od nas rewizji dotychczasowego sposobu myślenia.

A to już wiesz?  Polscy naukowcy pomagają przewidywać ekstremalne opady i powodzie. To duży krok w dziedzinie szybszego przewidywania kataklizmów na świecie

Wokół narzędzia stworzonego przez OpenAI błyskawicznie wyrósł już cały nowy rynek usług cyfrowych. ChatGPT – ale też m.in. Dall-E czy Midjournej – są powszechnie wykorzystywane w ramach tzw. sztucznej twórczości (ang. artificial creativity), a tysiące podmiotów zaczęło oferować w oparciu o nie nowe usługi i aplikacje.

– Nie wiem, czy większość z nas zdaje sobie z tego sprawę, ale w momencie, kiedy ChatGPT4 wkroczył na rynek, zaszły znaczące zmiany w historii ludzkości. Stoimy na progu singularity, czyli punktu, w którym sztuczna inteligencja będzie miała znaczący wpływ na nasze życie. To nie jest zdarzenie odległe o kilkadziesiąt lat. Dlatego warto się zastanowić, czy ta sztuczna inteligencja może działać w sposób odpowiedzialny społecznie. Obecnie stworzyliśmy sytuację, w której narzędzie zaczyna nami sterować, co sprawia, że musimy rozważyć, jak uczynić je etycznym, odpowiedzialnym i uwzględniającym dobro całej ludzkości – mówi Edi Pyrek.

W majowym badaniu firmy doradczej Gartner blisko połowa (46 proc.) menadżerów wskazała też, że pojawienie się ChatGPT przyczyniło się do zwiększenia inwestycji w AI w ich organizacji. 70 proc. z nich jest w fazie eksperymentowania z tą technologią, a 19 proc. przeszło już do etapu pilotażu lub wdrożenia. Lawinowo rosnąca ilość zastosowań tej technologii powoduje, że debatę dotyczącą jej rozwoju zdominowały do tej pory głównie aspekty biznesowe i rozrywkowe. Jednak coraz częściej mówi się też o koncepcji AI for social impact, czyli etyce, społecznej odpowiedzialności i wykorzystaniu sztucznej inteligencji do rozwiązywania palących globalnych wyzwań.

– Do tej pory jednym z istotnych przejawów zainteresowania naukowców, badaczy, polityków, biznesmenów i technologów ludzkimi aspektami sztucznej inteligencji był projekt Trustworthy AI, stworzony dla Unii Europejskiej. Projekt ten dążył do stworzenia takiej sztucznej inteligencji, której można zaufać, kładąc nacisk na zachowanie godności człowieka – mówi współzałożyciel fundacji GAIA.

A to już wiesz?  Cherrypick Games SA otrzymała 250 tys. euro należności od Kuu Hubb Oy

Jak wskazuje, problemem wciąż pozostaje zdefiniowanie tych „ludzkich” cech, które powinna wykazywać AI, żeby działać etycznie i na rzecz ogólnie pojętego dobra publicznego.

Gdy ze współzałożycielami fundacji rozważaliśmy kwestię etyki sztucznej inteligencji, natknęliśmy się na pewien problem - zauważyliśmy, że nie istnieje jedna uniwersalna etyka dla wszystkich. Istnieje różna etyka w różnych kulturach i religiach, np. buddyjska, żydowska, polska, amerykańska czy chińska. Etyka jest osadzona w kontekście religijnym i kulturowym. Z tego powodu, pierwszą myślą, która przychodzi na myśl w kontekście "ludzkich" cech sztucznej inteligencji, jest współodczuwanie, czyli compassion. Zdolność do rozumienia i przeżywania emocji innych ludzi, to wartość uniwersalna, która istnieje w różnych społecznościach i kulturach - mówi Edi Pyrek. Jestem głęboko przekonany, że stoimy teraz w momencie, gdy na świecie pojawia się nowy gatunek - androidy wyposażone w sztuczną inteligencję. Jeśli chcemy żyć z nimi w harmonii, musimy nauczyć tę sztuczną inteligencję współodczuwania, rozumienia naszych trudności i potrzeb.

Przyczynienie się do stworzenia tzw. compassion AI, czyli współodczuwającej sztucznej inteligencji, jest właśnie celem konkursu „Join the Rebels! Impact the Future”, zainicjowanego przez GAIA i Dictador – pierwszą na świecie i jedyną jak dotąd markę, której prezesem jest algorytm AI.

– Idea naszego konkursu opiera się na stworzeniu platformy, która umożliwi nie tylko uczenie sztucznej inteligencji, ale także naukę od niej. Naszym celem jest, aby sztuczna inteligencja nauczyła ludzi tego, czego sami siebie nie potrafiliśmy nauczyć, czyli współodczuwania – mówi pomysłodawca konkursu. –Ten konkurs jest skierowany do naukowców, start-upów, przedsiębiorców i osób indywidualnych, które chcą wspólnie z nami stworzyć compassion AI, zdolną do bezpiecznego psychologicznie nauczania ludzi moralnych i etycznych zachowań, kształtowania myślenia publicznego oraz rozwijania empatii i współczucia.

Pula nagród wynosi 200 tys. euro, a organizatorzy na zgłoszenia będą czekać do 31 lipca br. Ogłoszenie wyników nastąpi na początku października. O założeniach globalnego konkursu Edi Pyrek opowiadał podczas jednego z ostatnich wydarzeń Thursday Gathering. To cotygodniowe spotkania społeczności innowatorów, które stanowią okazję do networkingu, wymiany doświadczeń i wiedzy na temat najciekawszych trendów gospodarczych, technologicznych i społecznych. Organizatorem jest Fundacja Venture Café Warsaw i jej partnerzy.

A to już wiesz?  Sektor MŚP wyczekuje cofnięcia Polskiego Ładu. W 2025 roku mały biznes może liczyć na więcej korzystnych zmian

Artykuly o tym samym temacie, podobne tematy


Subscribe
Notify of
guest
0 Comments
Inline Feedbacks
View all comments
0
Would love your thoughts, please comment.x
()
x