Sztuczna inteligencja to nie tylko pomoc – to też cel dla cyberprzestępców. Ostatnie badania pokazują, że proste oszustwa (naklejki, zaawansowane kamuflaże) mogą sprawić, że AI „widzi” nie to, co my. W artykule wyjaśniamy, jak działa atak na algorytm AI i co robią naukowcy, żeby temu zapobiec.
Atak na auta autonomiczne
- Naukowcy z University at Buffalo przeprowadzili eksperyment, w którym umieścili na samochodzie specjalne wzory z folii (tzw. wrogie maski kafelkowe). Choć dla ludzi auto wyglądało normalnie, to jego radar uznał, że pojazd zniknął z otoczenia.
- To pokazuje, jak wrogie zmiany w otoczeniu mogą zmanipulować AI. Podobnie jest w cyfrowych obrazach – niewielka zmiana kilku pikseli może sprawić, że AI uzna zdjęcie kota za psa.
Groźne konsekwencje
- Bezpieczeństwo na drodze: haker mógłby przejąć kontrolę nad autonomicznym autem, np. zmieniając trasę lub wyłączając systemy bezpieczeństwa. Groźne jest także wprowadzenie fikcyjnych przeszkód lub ich ukrywanie – auto może „myśleć”, że tor jest wolny, nawet gdy ktoś stoi na drodze.
- Inne aplikacje: podobne ataki możliwe są np. na systemy kamer miejskich czy dronów AI – to problem globalny. Z tego powodu specjaliści są zgodni: potrzeba silnych zabezpieczeń i testów odporności na cyberataki.
Obrona i regulacje
- Detekcja zagrożeń: inżynierowie pracują nad dodatkowymi czujnikami i algorytmami weryfikacyjnymi, które wykrywają nietypowe wzorce (np. samochód, który nagle „zniknął” z radaru).
- Regulacje: UE i USA rozważają wprowadzenie obowiązkowych testów bezpieczeństwa dla systemów AI w motoryzacji. Państwa planują również standardy cypherresistance (odporność na ataki). W Polsce Instytut Transportu Samochodowego analizuje podobne ryzyka i bierze udział w międzynarodowych pracach nad normami.
Cyberbezpieczeństwo AI to jeden z kluczowych wyzwań najbliższych lat. Razem – badacze, rządy i firmy – musimy budować odporność technologii na ataki, zanim staną się one powszechnym zagrożeniem.


