Przejdź do treści Przejdź do menu
wtorek, 28 maja 2024 napisz DONOS@

Sztuczna inteligencja pomoże przestępcom?

Przestępstwa „na wnuczka” wkrótce mogą otrzymać nowe możliwości. Za sprawą sztucznej inteligencji, do ofiary zadzwoni „głos prawdziwego wnuczka”, wtedy nawet czujna babcia może ulec oszustom. To tylko początek zagrożeń.

ChatGPT czy chatbot Bard Googla rozpalają wyobraźnię, nie tylko uczniów, którzy już liczą na pomoc przy pisaniu prac domowych. Tzw. sztuczną inteligencję wielu specjalistów porównuje do rewolucji technologicznej coś na kształt wynalezienia „nowej maszyny parowej”. Większość użytkowników widzi korzyści, tj. oszczędność czasu, wygodę czy precyzyjniejsze odpowiedzi wyszukiwarki. Pracodawcy dostrzegą oszczędności, gdy niekoniecznie prostsze czynności wykona komputer. Może napisać program, przygotować raport, odpowiadać na korespondencję, obsługiwać call center i wiele wiele innych czynności, a to dopiero początki. 

- Ludzie wkrótce będą mogli korzystać z narzędzi takich jak ChatGPT, a nawet Bing czy Google, aby tworzyć głosy, które brzmią bardzo podobnie do ich głosu, używać ich intonacji, oddawać nastrój - powiedziała w CTV News Marie Haynes, ekspert ds. sztucznej inteligencji, założycielka firmy MHC. - I będzie bardzo, bardzo trudno odróżnić od rzeczywistej żywej osoby.

Rzeczpospolita, za którą przywołuję cytat, wskazuje, że wystarczy mała próbka głosu z TIK Toka czy Youtuba, by oszust w słuchawce mówił „prawdziwym” wnuczkiem. Dostęp do tak potężnego oprogramowania będzie miał każdy użytkownik komputera lub smartfona. Tylko korzystać.

Zresztą AI (sztuczna inteligencja) może więcej. Niedawno Wirtualne Media informowały, że  Elliot Higgins, założyciel portalu śledczego Bellingcat, opublikował na Twitterze serię zdjęć z zatrzymania Donalda Trumpa. Jest tam wszystko, były prezydent USA ucieka przed policją, zostaje złapany, próbuje się wyrwać. Fotografie wyglądają jak prawdziwe, ale wszystko jest stworzone dzięki sztucznej inteligencji Midjourney v5. Wszyscy znają maksymę Juliusza Cezara: Veni, vidi, vici (łac. „Przybyłem, zobaczyłem, zwyciężyłem”). Jak teraz zaufać oczom? Co przebiegły i bezwzględny haker, a może polityk, czy konkurent będzie mógł zrobić z takimi narzędziami? A etatowy pracownik rosyjskiej służby FSB, celem destabilizacji regionu?

Znana jest już technologia „deepfake” tzn.  technika głębokiego uczenia i  obróbki obrazu, polegająca na łączeniu obrazów twarzy ludzkich przy użyciu technik sztucznej inteligencji. Bohater może mówić opinie, które daleko odbiegają od jej rzeczywistych poglądów. Poniżej załączam znany przykład z byłym prezydentem Barakiem Obamą. Jednak ta technologia może wygenerować obraz, gdzie mąż czy żona staną się bohaterem lub bohaterką  sceny z filmu dla dorosłych. Pomogą tłumaczenia? Ile osób zapłaci na niepublikowanie skądinąd fałszywej wiadomości. Czy tak sztuczna inteligencja wejdzie pod strzechy?

Wspomniana już Marie Haynes zauważa, że rozmowy wideo także nie są bezpieczne, ponieważ sztuczna inteligencja jest dziś wystarczająco potężna, aby sklonować czyjąś twarz. 


 
 

W celu świadczenia przez nas usług oraz ulepszania i analizy ich, posiłkujemy się usługami i narzędziami innych podmiotów. Realizują one określone przez nas cele, przy czym, w pewnych przypadkach, mogą także przy pomocy danych uzyskanych w naszych Serwisach realizować swoje własne cele i cele ich podmiotów współpracujących.

W szczególności współpracujemy z partnerami w zakresie:
  1. Analityki ruchu na naszych serwisach
  2. Analityki w celach reklamowych i dopasowania treści
  3. Personalizowania reklam
  4. Korzystania z wtyczek społecznościowych

Zgoda oznacza, że n/w podmioty mogą używać Twoich danych osobowych, w postaci udostępnionej przez Ciebie historii przeglądania stron i aplikacji internetowych w celach marketingowych dla dostosowania reklam oraz umieszczenia znaczników internetowych (cookies).

W ustawieniach swojej przeglądarki możesz ograniczyć lub wyłączyć obsługę plików Cookies.

Lista Zaufanych Partnerów

Wyrażam zgodę