
(Quelle: Peaks & Pies)
Business Intelligence/19. Februar 2024 -Aktualisiert am 24. Februar 2025/3 Min. Lesezeit
(Quelle: Peaks & Pies)
Viele Online-Werbekampagnen basieren auf ansprechenden Videos oder Bildern, die auf verschiedenen Plattformen verteilt, den Nutzerinnern und Nutzern dargestellt werden. Dabei verwenden Unternehmen visuelle Inhalte, um ihre Botschaften zu vermitteln und gezielt Kunden anzusprechen. In Anbetracht der Vielfalt an verwendeter Creatives und deren umfassender Ausstrahlung über verschiedene Länder und Gerätetypen hinweg gestaltet sich die Auswertung, was schlussendlich Bilder oder Videos erfolgreich macht oft als herausfordernd. Zugleich kann es auch zur Herausforderung werden, Guidelines in der Content Creation zu überwachen und ihre Einhaltung zu garantieren.
Die Google Cloud Vision AI API ermöglicht die Extraktion von strukturierten Informationen aus Bildern und Videos. Dabei kommen Machine-Learning-Techniken zum Einsatz, um automatisch Objekte zu erkennen, Texte zu verstehen und Stimmungen in Bildern zu interpretieren.
Dazu müssen die zu analysierenden Assets unter einer öffentlich erreichbaren URL hinterlegt werden (oder als base64-enkodierte Datei mit versendet werden) und es sollte im Vorhinein klar sein, welche Bestandteile analysiert werden sollen, um unnötige Kosten zu vermeiden.
Hier ein relevanter Auszug aus den verschiedenen Detektoren:
Folgend einmal zwei Beispiele wie die Erkennung in einem Video Frame aussehen kann:
"Abb. 1: Hier wird auf dem Bild nicht nur die Person im Vordergrund, sondern auch die Person im Hintergrund erkannt. Außerdem wird eine Erkennung der Pose (Sitting/Dancing) vorgenommen."
(Quelle: Peaks & Pies)
"Abb. 2: Hier wird nicht nur der Text im Vordergrund, sondern es werden auch die kleinen Beschriftungen auf den Produkten erkannt und ausgegeben."
(Quelle: Peaks & Pies)
Interessant ist bei einer großen Reichweite die Verbindung der Daten aus der KI-Analyse mit Performance Daten der eingesetzten Creatives. Daraus ergeben sich ggf. spannende Schlussfolgerungen über den Einsatz bestimmter Entitäten in Bezug auf Produktkategorien oder deren Zusammenspiel mit dem Land, in dem ein Creative ausgestrahlt wurde und dessen Performance.
Da bei den vorgefertigten Detektoren auf fertige Modelle zurückgegriffen wird, die auf einem von Google bestimmten Datensatz basieren, ist es nicht in allen Fällen eindeutig, welche Entitäten erkannt werden können. So ist bei der Marken-Detektion nicht jede Firma oder jedes Logo im Bereich der Antwortmöglichkeiten, oder bei der Shotlabel-Detection gibt es möglicherweise das eine für den UseCase interessante Konzept nicht (z.B. ‘Baggerfahren’). Auch bei der Erkennung abstrakter Formen oder geometrischer Animationen konnten die Algorithmen bisher wenig Output liefern.
Zusammenfassend bieten die Google Cloud Vision API und die Video Intelligence leistungsstarke Werkzeuge für die Marketinganalyse. Sie sind dazu auch noch durch die monatlichen freien Budgets sehr kostengünstig einzusetzen. Aufwändig wird es wiederum, wenn individuelle Konzepte erkannt werden sollen, da man hier nicht um ein eigenes Modell herumkommt. Deswegen ist es schon in der ersten Prototypenphase wichtig zu entscheiden, was in den Videos genau erkannt werden sollte.
Weitere Links zum Nachlesen: