Heutzutage wird maschinellem Lernen, und insbesondere Deep-Learning-basierten Softwareprodukten, viel Aufmerksamkeit geschenkt. Nicht nur im Bereich der intelligenten Videoüberwachung, sondern in fast jedem Aspekt moderner Software verlangt der Verbraucher nach einer Art künstlicher Intelligenz.
Neuronales Netz zur Objektklassifizierung
Solche Algorithmen sind sehr mächtige Ansätze, um Muster in allen Arten von Videobildern festzustellen. So kann beispielsweise ein neuronales Netz zur Objektklassifizierung den Inhalt eines Bildes erkennen und dem Benutzer übermitteln: »In diesem Bild ist eine Katze.« Ein solcher Algorithmus arbeitet in der gewünschten Umgebung mit einer Genauigkeit von über 90 %. Was eine gewünschte Umgebung genau ist, wird von einem Dateningenieur definiert. Dabei können unterschiedliche Konflikte auftreten.
Die Herausforderungen für reale Anwendungen beginnen mit unerwarteten Objekten oder sehr schwer zu modellierenden Umgebungen. Um neuronale Netze zu trainieren, braucht man Unmengen von Bildern. Diese sind zwar öffentlich zugänglich und einfach zu beschaffen, aber sie entsprechen meist nicht den realistischen Daten. Versucht man beispielsweise ein Modell zur Erkennung von Personen in einer typischen Videoüberwachungsanwendung zu erstellen und nutzt dafür öffentlich zugängliche Bilder, kennt dieses Modell möglicherweise nur aufrechtstehende Personen im typischen Sichtfeld einer Handykamera.
Unerwartete Perspektiven als Problemfall
Ein solches Modell wird Schwierigkeiten haben, Personen in Kamerabildern zu erkennen, wenn die Kamera an einem sechs Meter hohen Kameramasten montiert ist. Dieser Mangel an Daten verursacht noch viel größere Probleme, wenn der Dateningenieur nicht vorhersagen oder beschreiben kann, wie das Objekt aussehen wird. Wenn zum Trainieren eines Objekterkennungsmodells keine Bilder vorhanden sind, die beispielsweise kriechende Personen enthalten, wird der trainierte Detektor höchstwahrscheinlich keine auf dem Boden kriechende Person erkennen. Bild 1 zeigt dieses Beispielverhalten. Hier wird eine kriechende Person von einer Kameraanalyse, die auf Machine Learning basiert, nicht erkannt.
Gibt es also eine Chance, von Machine Learning oder Deep Learning im Bereich der Videoüberwachungsanwendungen zu profitieren? Meiner Meinung nach ja! Aber die Ansätze und Algorithmen müssen sehr intelligent und die Nutzung sehr findig sein. Einerseits könnten die Anwendungen sehr eingeschränkt sein. Beispielsweise besteht die Möglichkeit, dass eine Analyse nur dann funktioniert, wenn in der Anwendung ausschließlich aufrechte Personen zu erwarten sind. In diesem Fall kann ein Dateningenieur vorhersagen, wie Objekte aussehen werden.
Algorithmen sollen Anomalien erkennen
Andererseits könnten wir Ansätze des maschinellen Lernens verwenden, um Anomalien zu erkennen – und nicht vortrainierte Objekte. Versucht z. B. jemand, sich hinter einem Spiegel zu verstecken und unbemerkt einzudringen, stellt dies ein unerwartetes Verhalten dar, das von einem Dateningenieur nicht modelliert werden kann. Ein Algorithmus, der entwickelt und trainiert wurde, um Anomalien zu erkennen, ist jedoch in der Lage, einen solchen Einbruchversuch zu erkennen. Wenn ein anormales Ereignis eintritt, wird der Operator in diesem Moment vom System benachrichtigt.
Solche Algorithmen sind noch nicht einsatzbereit, werden es aber in Zukunft sein. Man kann ihnen antrainieren, was sowohl normal als auch ungewöhnlich (also nach der Trainingsphase neu) ist. Derzeit arbeiten Datenwissenschaftler an Algorithmen, die das Problem der unerwarteten Erkennung von Anomalien in einem Videostream lösen sollen. Die Verwendung solcher Algorithmen in hochwertigen Videoanalysen wird der nächste Schritt in Bezug auf hohe Genauigkeit und gleichzeitig hohe Sensitivität sein.
Sollte es Probleme mit dem Download geben oder sollten Links nicht funktionieren, wenden Sie sich bitte an kontakt@elektro.net