Mittels tiefer neuronaler Netze kann das System erkennen, ob sich eine Person im Arbeitsbereich aufhält, und ob es sich um einen autorisierten und geschulten Werker oder eine unautorisierte Person handelt. Dabei wird die Bewegungsgeschwindigkeit des Roboters entsprechend angepasst, um die Sicherheit der Anwender sicherzustellen.
Durch einen Angriff auf die Personenerkennung könnte diese Sicherheitsfunktion ausgehebelt werden. Mittels eines gezielt erzeugten und ausgedruckten Musters kann der KI-basierte Algorithmus zur Personenerkennung, so getäuscht werden, dass Menschen für das System unsichtbar werden. Der demonstrierte Angriff findet somit in der realen Welt statt und erfordert keinen Zugang zum Algorithmus zur Ausführungszeit.
Um die sichere Nutzung des Roboters im Falle von Angriffen trotzdem zu ermöglichen, wird einerseits ein alternativer robuster Erkennungsalgorithmus parallel angewandt, welcher nicht anfällig gegen den demonstrierten Angriff ist. Andererseits werden beispielhaft Maßnahmen zur Erkennung von Angriffen präsentiert. Der Demonstrator dient unter anderem zur Untersuchung von statistischen Kennzahlen, Maßen und Verteilungen bei Angriffen sowie der anschaulichen Visualisierung interner Entscheidungsprozesse des Erkennungsalgorithmus während des Angriffs.