Sztuczna inteligencja – to może nam grozić, jeśli wciąż nie będzie żadnych przepisów

Sztuczna inteligencja rozpanoszyła się na dobre w internecie i nie tylko. Zrobiła furorę niskimi kosztami i szybkością działania. Przez to coraz częściej przymykamy oko na jakość generowanych treści. Ba, w przypadku treści graficznych i video jest coraz lepsza i odróżnienie treści generowanych od stworzonych przez człowieka jest coraz większym wyzwaniem. AI jest coraz powszechniej wykorzystywana, ale niestety nie tylko do tego, co pozytywne. Tymczasem wciąż nie ma żadnych przepisów prawnych regulujących korzystanie ze sztucznej inteligencji, co sprawia, że można zrobić z jej użyciem wszystko. AI staje się coraz bardziej niebezpieczna. Co może nam grozić, jeśli nadal nie zostaną wprowadzone żadne przepisy?

1. Utrata pracy

Płace rosną z roku na rok, tak samo jak rachunki i ceny wszystkiego. Firmy ponoszą coraz więcej kosztów, a same też nie mogą w nieskończoność podnosić cen. Dlatego szukają sposobów na oszczędzanie pieniędzy, a wynagrodzenia pracowników to największe koszty. Koszt zatrudnienia jednego pracownika na etacie za płacę minimalną (4666 zł) sięga 6000 zł. Przy wyższych płacach koszty są jeszcze większe. Pracodawcy coraz częściej postanawiają więc oszczędzać na zatrudnianiu, a jednym ze sposobów jest zastępowanie ludzi sztuczną inteligencją. Oczywiście na stanowiskach, na których jest to możliwe. Zdarzają się wręcz masowe zwolnienia po to, by zastąpić całe zespoły pracowników AI obsługiwaną przez 1-2 osoby. Zapominają, że jeśli nie dadzą ludziom zarobić, to sami nie zarobią, bo ludzie nie będą mieli im czym płacić. Sztuczna inteligencja wciąż będzie się rozwijać i umożliwiać coraz więcej. Przez to wiele osób może obawiać się o swoją przyszłość.

2. Jeszcze większe ograniczenie kontaktu z ludźmi

Internet spowodował, że mało co ludzie ze sobą rozmawiają. Portale społecznościowe i komunikatory stały się lepsze, niż realna rozmowa. W dodatku w internecie panuje hejt i rozchodzą się w szybkim tempie informacje, również te negatywne, o tym, jak ktoś skrzywdził kogoś innego. To wszystko sprawia, że sobie nie ufamy i oddalamy się od siebie. Tymczasem firmy stawiają na sztuczną inteligencję w postaci botów, które rozmawiają z nami przez telefon, na czatach, udzielają nam porad itd. Czasem trudno rozpoznać, czy mamy do czynienia z botem, czy z człowiekiem. Boty nie zawsze potrafią doradzić właściwie, bo nie rozumieją potrzeb człowieka. Ponadto spowodują tylko jeszcze większe oddalenie się ludzi od siebie.

3. Informacje wprowadzające w błąd

Sztuczna inteligencja jest ochoczo wykorzystywana do generowania treści przekazujących informacje i porady. Jednak nie jest nieomylna. Może wygenerować informacje nieaktualne, nieprawdziwe, mylić fakty, czy miejsca o podobnych nazwach. Chat GPT bardzo często błędnie odpowiada na zadawane pytania, a przecież z łatwością mogą korzystać z niego nawet dzieci. Brak weryfikacji generowanych informacji powoduje, że później wraz z treścią rozpowszechniane są błędne i nieprawdziwe, co może mieć negatywny wpływ na wiedzę i myślenie ludzi. Na wyniki uczniów także, bo jeśli uczeń, robiąc pracę domową, skorzysta z chatu GPT lub innego narzędzia, które poda mu błędną informację, może dostać złą ocenę, kiedy nauczyciel odkryje, że zrobił zadanie źle. AI może więc naprawdę zaszkodzić, zamiast pomóc.

4. Dezinformacja i oszustwa

Sztuczna inteligencja jest łatwa w obsłudze na tyle, że niemal każdy może tworzyć materiały. Niestety mogą to być materiały negatywne, mające na celu dezinformację lub oszustwa. Co gorsza, coraz trudniej odróżnić materiały generowane od tych tworzonych przez ludzi, zwłaszcza że ludzie też pomagają sobie różnymi programami, które nie są oparte na sztucznej inteligencji. Bardzo łatwo można nawet wykorzystać czyjś wizerunek – wystarczy zdjęcie, próbka głosu i można zrobić video ze znaną osobą, która poleca coś, co ma wyłudzać pieniądze.

W listopadzie w Pulsie 2 pojawiał się spot z aktorem Henrykiem Gołębiewskim, reklamujący jakąś stronę „Emerytura na maksa”, która miała pomnażać emerytury seniorów. Ja od razu zauważyłam, że pan Henryk wygląda jakoś dziwnie w tym spocie i dziwnie rusza ustami, i zaczęłam podejrzewać, że to pewnie jakaś kolejna akcja Pulsu, serialu „Lombard – życie pod zastaw”, fundacji pod Dębem i policji. Nie myliłam się, bo w końcu pojawił się spot wyjaśniający, że tamten był wygenerowany przez AI. To pokazuje, jak łatwo stworzyć coś, co może oszukać setki, a nawet tysiące ludzi. W dodatku oszustów może zachęcać jeszcze to, że nie ma żadnych przepisów w kwestii praw autorskich. Generowane treści prawnie są niczyje, więc oszuści mogą czuć się bezkarni, skoro wg prawa nie są ich autorami.

5. Przywłaszczanie sobie nie swoich treści

Polskie przepisy nadają prawa autorskie wyłącznie człowiekowi. Treści generowane są więc prawnie niczyje, chyba że człowiek zmodyfikuje je choćby odrobinę. Jeśli po opublikowaniu ich w sieci ktoś rozpozna, że są generowane, może je zmodyfikować i uzyskać prawa autorskie. W takiej sytuacji osoba, która treść wygenerowała jest na straconej pozycji, bo nie jest łatwo udowodnić, że wprowadzała jakieś modyfikacje. W przypadku artykułów i innych treści pisanych ktoś może sprawdzić treść detektorem AI. Jeśli detektor wskaże, że treść jest generowana, może ją wykorzystać. Wystarczy, że ją choć trochę zmodyfikuje i już uzyska prawa autorskie, a nie da się w żaden sposób udowodnić tego, że pisało się tekst samemu, czy że modyfikowało się go po wygenerowaniu.

6. Szczególne narażenie niektórych grup osób na zagrożenia

Wspomniana wyżej łatwość dezinformacji, oszukiwania i tworzenia szkodliwych treści jest szczególnym zagrożeniem dla niektórych grup osób. Dostęp do internetu mają dzieci, nastolatki, czy osoby niepełnosprawne intelektualnie, autystyczne, a także osoby starsze, bo wbrew pozorom wielu seniorów potrafi obsługiwać internet, telefon i komputer. Jednak te grupy osób są wyjątkowo narażone na nadużycia. Dzieci i młodzież narażone są na szkodliwe treści, generowane przez ich idoli lub wykorzystujące ich wizerunek. Również przemoc rówieśnicza może nabrać innego wymiaru, bo wystarczy nagrać lub zrobić zdjęcie koledze i można łatwo wygenerować upokarzający go filmik lub wykorzystujący jego wizerunek do rozpowszechniania szkodliwych informacji lub oszustwa, co narazi go na nienawiść i odrzucenie.

Ponadto wiele dzieci i młodzieży jest uzależnionych wręcz od internetu, TikToka, gier. Wiele jest też niepełnosprawnych intelektualnie, czy obarczonych zaburzeniami, które mogą powodować, że łatwiej ich nabrać. Takie osoby mogą mieć jeszcze większy problem z rozpoznaniem treści nieprawdziwych i generowanych. Serial Dzielnica Strachu w nowym sezonie pokazuje, jak opłakane mogą być skutki nieograniczonego korzystania z AI. Był odcinek, w którym chłopak bohaterki porwał na jej prośbę jej koleżankę, która w przeszłości ją upokorzyła. Miał ją tylko nastraszyć, a wymyślił, że ją zabije, a najpierw stworzył z pomocą AI filmik pokazujący, jak ją zabija. W kolejnym odcinku zaś bohaterem był uzależniony od gier nastolatek, któremu dziewczyna kazała zabić matkę i to zrobił, a dziewczyna okazała się… botem. To, co robi ta ekipa jest naprawdę dobrą przestrogą.

Sztuczna inteligencja wymaga przepisów i to szybko

Nieograniczone możliwości wykorzystywania AI mogą przynieść więcej szkody, niż pożytku. Najpoważniejszym zagrożeniem są szkodliwe treści i oszustwa z możliwością wykorzystania czyjegoś wizerunku. Rząd powinien wreszcie się za to wziąć i to jak najszybciej. Jeśli nie zostaną wprowadzone żadne przepisy, to strach pomyśleć, do czego może dojść.

_____________________________________________________________________

Utrzymanie bloga też kosztuje. Jeśli więc podoba Ci się to, co piszę, postaw mi symboliczną kawę, która doda mi energii i bardzo pomoże w rozwoju bloga, który jest moją pracą i pasją. Będę Ci bardzo wdzięczna za docenienie i wsparcie. 🙂 W dodatku wspierasz Zwierzogranie! 10% od każdej kawy wpłacę na zbiórkę! A jeśli chcesz wiedzieć więcej o BuyCoffee, zajrzyj TUTAJ.