Intelligente Autos sind oft weniger schlau als gedacht. Chinesischen IT-Experten ist es nun gelungen, die Autopilot-Funktion eines Tesla Model S mit simplen Klebestreifen auszutricksen und das E-Auto so in den Gegenverkehr zu lenken.
Angriffspunkt der Hackingabteilung des Internet-Unternehmens Tencent war nicht die Software des Fahrzeugs, sondern die Sensorik. Konkret: die Kamera des Spurhalteassistenten, die Fahrbahnmarkierungen registriert, damit die Lenkung automatisiert den Kurs anpassen kann. Die zu akademische Zwecken gestartete Attacke basierte auf gefälschten Fahrbahnmarkierung; die mit Klebeband gelegte Fake-Spur folgte zunächst der realen Begrenzungslinie, um vom Assistenzsystem als Führungslinie erkannt zu werden, wich dann aber nach links ab – bis hinein in die Gegenspur. Weil der Tesla zur Positionsbestimmung innerhalb der Fahrspur lediglich die Kamera nutzt, auf Navigationsdaten oder andere Ortungsfunktionen jedoch verzichtet, würde der relativ simple Eingriff reichen, um schwere Unfälle zu provozieren.
Dass die Bilderkennungssysteme automatisierter Autos leicht zu irritieren sind, ist bekannt. So hatten US-Forscher bereits 2017 Robotermobile mit manipulierten Verkehrsschildern in die Irre geführt. Schon kleine Aufkleber oder Graffitis führten zu Fehlinterpretationen. Unter anderem wurden Stopp- für Tempolimit-Schilder gehalten. Erst kürzlich hatten Wissenschaftler zudem entdeckt, dass die Kamerasysteme einiger Notbremsassistenten mit Fußgängerkennung Personen mit dunklerer Hautfarbe nicht sicher registrierten. Der Grund für derartige Mängel liegt im lückenhaften Anlernen der künstlichen Intelligenzen: Sie werden mit zahllosen Bildern von Fahrspuren, Verkehrsschildern oder eben Fußgängern gefüttert – je größer und besser die Menge der Beispiele ist, desto sicherer erkennt die Software Fahrspuren, Verkehrsschildern oder Fußgänger auch in der realen Welt. In dem Fußgänger-Fall fehlten jedoch ausreichend viele Bilder dunkelhäutiger Passanten. (SP-X)