Drony i autonomiczne samochody jako broń: dlaczego musimy bać się hakerów
Drony i autonomiczne samochody jako broń: dlaczego musimy bać się hakerów
Anonim

Jeśli sztuczna inteligencja wpadnie w niepowołane ręce, cywilizowany świat może pogrążyć się w chaosie.

Drony i autonomiczne samochody jako broń: dlaczego musimy bać się hakerów
Drony i autonomiczne samochody jako broń: dlaczego musimy bać się hakerów

Nikt nie zaprzeczy, że sztuczna inteligencja może przenieść nasze życie na wyższy poziom. Sztuczna inteligencja jest w stanie rozwiązać wiele problemów, na które człowiek nie ma wpływu.

Jednak wielu uważa, że superinteligencja na pewno będzie chciała nas zniszczyć, jak SkyNet, albo zacznie przeprowadzać eksperymenty na ludziach, jak GLADoS z gry Portal. Ironia polega na tym, że tylko ludzie mogą uczynić sztuczną inteligencję dobrą lub złą.

Dlaczego sztuczna inteligencja może być poważnym zagrożeniem
Dlaczego sztuczna inteligencja może być poważnym zagrożeniem

Badacze z Yale University, Oxford, Cambridge i OpenAI opublikowali raport na temat nadużywania sztucznej inteligencji. Mówi, że prawdziwe niebezpieczeństwo pochodzi od hakerów. Za pomocą złośliwego kodu mogą zakłócić działanie zautomatyzowanych systemów kontrolowanych przez sztuczną inteligencję.

Badacze obawiają się, że technologie oparte na dobrych intencjach ucierpią. Na przykład sprzęt inwigilacyjny może służyć nie tylko do łapania terrorystów, ale także do szpiegowania zwykłych obywateli. Naukowcy są również zaniepokojeni komercyjnymi dronami dostarczającymi żywność. Łatwo je przechwycić i podłożyć coś wybuchowego.

Innym scenariuszem destrukcyjnego wykorzystania AI są samochody autonomiczne. Wystarczy zmienić kilka linijek kodu, a maszyny zaczną ignorować zasady bezpieczeństwa.

Dlaczego sztuczna inteligencja może być poważnym zagrożeniem
Dlaczego sztuczna inteligencja może być poważnym zagrożeniem

Naukowcy uważają, że zagrożenie może mieć charakter cyfrowy, fizyczny i polityczny.

  • Sztuczna inteligencja jest już wykorzystywana do badania podatności różnych kodów oprogramowania. W przyszłości hakerzy mogą stworzyć bota, który ominie wszelką ochronę.
  • Za pomocą sztucznej inteligencji człowiek może zautomatyzować wiele procesów: na przykład kontrolować rój dronów lub grupę samochodów.
  • Za pomocą technologii takich jak DeepFake można wpływać na życie polityczne państwa poprzez rozpowszechnianie fałszywych informacji o światowych przywódcach za pomocą botów w Internecie.

Te przerażające przykłady istnieją na razie tylko jako hipoteza. Autorzy badania nie sugerują całkowitego odrzucenia technologii. Zamiast tego uważają, że rządy krajowe i duże firmy powinny dbać o bezpieczeństwo, gdy przemysł AI jest jeszcze w powijakach.

Decydenci muszą studiować technologię i współpracować z ekspertami w tej dziedzinie, aby skutecznie regulować tworzenie i wykorzystywanie sztucznej inteligencji.

Deweloperzy z kolei muszą ocenić niebezpieczeństwo, jakie niesie ze sobą wysoka technologia, przewidzieć najgorsze konsekwencje i ostrzec przed nimi światowych przywódców. Raport wzywa twórców sztucznej inteligencji do współpracy z ekspertami ds. bezpieczeństwa z innych dziedzin i sprawdzenia, czy zasady zapewniające bezpieczeństwo tych technologii można wykorzystać do ochrony sztucznej inteligencji.

Pełny raport opisuje problem bardziej szczegółowo, ale najważniejsze jest to, że sztuczna inteligencja jest potężnym narzędziem. Wszystkie zainteresowane strony powinny zapoznać się z nową technologią i upewnić się, że nie jest ona wykorzystywana do celów przestępczych.

Zalecana: