Systemy rozpoznawania obrazu mogą zdziałać cuda. Firmy technologiczne wykorzystują je np. do tworzenia botów gamingowych, które są w stanie podejmować decyzje wyłącznie w oparciu o to, co wyświetla się na ekranie. Algorytmy SI stosuje się także w telewizorach do skalowania obrazu oraz w programach do generowania obiektów wizualnych. Technologia ta ma jednak także swoją mroczną stronę – po sparowaniu jej z siecią monitoringu miejskiego może posłużyć do stworzenia doskonałego systemu inwigilacji obywateli. Nie jest to wizja z dziedziny science fiction, w ten sposób sztuczną inteligencję wykorzystują m.in. władze Chin, które wdrożyły system inteligentnego monitoringu. Na razie podobne rozwiązania funkcjonują w ograniczonym zakresie, ale w przyszłości mogą upowszechnić się, przez co uderzą w prywatność każdego z nas. Naukowcy z Katolickiego Uniwersytetu Lowańskiego w Belgii postanowili coś z tym zrobić. Opracowali prosty wzór graficzny, który jest w stanie oszukać sztuczną inteligencję wyszkoloną w rozpoznawaniu ludzi i sprawić, że staniemy się dla niej niewidoczni. Wystarczy wydrukować specyficzny obraz i zawiesić go sobie na szyi, aby założyć czapkę niewidkę na sztuczną inteligencję.
Wierzymy w to, że jeśli wykorzystamy tę technikę z symulacją wyglądu ubrań, będziemy w stanie stworzyć T-shirt z nadrukiem, który uczyni daną osobę wirtualnie niewidzialną dla automatycznych systemów bezpieczeństwa - napisali autorzy projektu zamieszczonego na stronie arxiv.org.
Jak zauważyli dziennikarze The Verge, podobne rozwiązanie zaprezentował w 2010 roku William Gibson w swojej powieści Zero History. Pomysł studentów z Belgii nie jest jednak pierwszym rozwiązaniem tego typu, które doczekało się realizacji. Na świecie istnieje wiele tzw. adversarial examples, czyli wzorów oszukujących sztuczną inteligencję. Funkcjonują m.in. pod postacią specjalnych naklejek czy fizycznych obiektów takich jak okulary o specyficznym kształcie. Ale nawet najlepsze adversarial examples nie są doskonałe – wzory mają ograniczony zasięg działania i potrafią oszukać specyficzne oprogramowanie. Nie inaczej jest i w tym przypadku – belgijski wzór przystosowano do algorytmu YOLOv2, dlatego nie jest w stanie oszukać np. systemu rozpoznawania obiektów opracowanego przez inżynierów Google. Jeśli zatem w przyszłości inteligentny monitoring upowszechnią się na świecie, osoby pragnące zachować swoją anonimowość będą musiały wyposażyć się w szereg koszulek adversarial examples, aby oszukać kamery w różnych miastach czy krajach.
To jest uproszczona wersja artykułu. KLIKNIJ aby zobaczyć pełną wersję (np. z galeriami zdjęć)
Spodobał Ci się ten news? Zobacz nasze największe HITY ostatnich 24h
Skomentuj