Rozwój sztucznej inteligencji, czyli u?yteczno?? kontra prywatno??

Newsroom BrandsIT
4 Min

Zobaczy? j? w tramwaju, to by?a mi?o?? od pierwszego wejrzenia. Wystarczy?o jedno zdj?cie wykonane ukradkiem i system sztucznej inteligencji do rozpoznawania twarzy natychmiast odszuka? jej nazwisko, profile na portalach spo?eczno?ciowych i dane kontaktowe. Zarysowany scenariusz mo?e by? pocz?tkiem historii mi?osnej lub wizj? koszmaru zwi?zanego ze stalkingiem. O sztucznej inteligencji mówi Leszek Tasiemski – wiceprezes dzia?u bada? i rozwoju w F-Secure.

Leszek Tasiemski F-Secure
Leszek Tasiemski F-Secure

Chi?ska policja testuje okulary z wbudowan? kamer?, po??czone z systemem AI (Artificial Intelligence) do rozpoznawania twarzy. Celem jest natychmiastowa identyfikacja osób poszukiwanych przez organy ?cigania. Facebook niedawno wys?a? do u?ytkowników zapytanie o zgod? na uruchomienie funkcji rozpoznawania twarzy. Rozwijanie tego typu technologii budzi sprzeciw nawet w?ród tych, którzy je opracowuj?. Przyk?adowo, pracownicy firmy Amazon wyrazili protest wobec dostarczania algorytmów detekcji twarzy dla organów ?cigania. Kilka tygodniu temu ponad stu pracowników Microsoftu wys?a?o list, w którym sprzeciwiali si?, aby firma dostarcza?a us?ugi z zakresu przetwarzania w chmurze oraz sztucznej inteligencji dla ameryka?skiej s?u?by celnej i imigracyjnej.

Wydaje si?, ?e znowu mamy do czynienia z sytuacj?, kiedy post?p technologiczny i jego nag?a adaptacja wyprzedza zdroworozs?dkow? ostro?no??. Rozwój sztucznej inteligencji i prywatno?? nie id? w parze. Algorytmy b?d? w stanie bez najmniejszego problemu rozpozna? nasz wizerunek, a nawet g?os, dopasowa? i po??czy? dane zgromadzone na rozmaitych portalach spo?eczno?ciowych (oraz randkowych), rozbijaj?c ostatecznie iluzj? anonimowo?ci w sieci. Nale?y te? pami?ta? o ryzyku zwi?zanym z coraz bardziej powszechnymi asystentami g?osowymi – najcz??ciej cen? wygody jest prywatno?? i post?puj?ce cyfrowe obna?anie si?.

Prawdopodobnie w najbli?szych latach b?dziemy ?wiadkami rozwoju metod manipulacji opartych na sztucznej inteligencji. Mo?liwe jest opracowanie algorytmów potrafi?cych perfekcyjnie udawa? g?os danej osoby (na podstawie kilkusekundowej próbki), a nawet generuj?cych wideo osoby mówi?cej swoim g?osem i robi?cej rzeczy, których nigdy nie zrobi?a, ani nie powiedzia?a. To bardzo pot??ne narz?dzia, które mog?yby trafi? w r?ce zarówno pospolitych oszustów, jak i agencji pa?stwowych manipuluj?cych opini? publiczn?. Odró?nienie prawdy od fa?szywej informacji (fake news) b?dzie coraz trudniejsze, mo?e nawet niemo?liwe.

Nale?y pami?ta?, ?e twórcy rozwi?za? wykorzystuj?cych sztuczn? inteligencj? kieruj? si? dobrymi intencjami, a ich motywacj? jest zapewnienie wsparcia dla cz?owieka na ró?nych p?aszczyznach ?ycia. Mo?liwo?? podyktowania tre?ci maila lub listy zakupów nawet w trakcie jazdy samochodem, zidentyfikowanie twarzy poszukiwanych przest?pców dzi?ki inteligentnym systemom monitoringu czy odnalezienie starego przyjaciela – to tylko cz??? funkcjonalno?ci, które maj? szans? poprawi? nasz? wydajno??, bezpiecze?stwo publiczne oraz kontakty mi?dzyludzkie.

Zanim jednak inteligentne systemy stan? si? nieodzown? cz??ci? naszego ?ycia, warto rozwa?y? zarówno korzy?ci, jak i zagro?enia oraz upewni? si?, ?e po?wi?camy nale?yt? uwag? ?rodkom bezpiecze?stwa. Obecnie wi?kszo?? technologii AI ma jedynie w??cznik – u?ywamy ich na sto procent albo wcale. Z czasem mo?emy si? spodziewa? rosn?cej liczby ustawie? pozwalaj?cych okre?li?, jak du?o informacji o sobie chcemy udost?pnia?. Jako u?ytkownicy powinni?my wymaga? takiej mo?liwo?ci od dostawców rozwi?za?. Wtedy po dwóch stronach na szali stanie u?yteczno?? oraz prywatno?? – istotne jest to, aby?my sami mogli decydowa? o przechyleniu tej szali.

Udostępnij