Künstliche Intelligenz hört mit: Die Vorträge ausgewertet von Microsofts „Video Indexer“
Können wir eine dieser Zukunfts-Techniken, von denen wir auf unserer Konferenz reden, auch selbst einsetzen? Wir haben ein Experiment mit einem kommerziell verfügbaren Dienst gewagt: dem Video Indexer des Windows-Herstellers Microsoft. Der Video Indexer versucht, ein Video zu verstehen – was gesagt wurde und von wem.
Eine Maschine hört, was Menschen sagen
Der „Video Indexer“ ist einer der Online-Dienste, die Microsoft unter dem Namen „Cognitive Services“ vermarkten und vermieten will – und die auf Techniken der so genannten „Künstlichen Intelligenz“ basieren: Maschinen, die Gehirnstrukturen nachbilden – neuronale Netze – und die trainiert werden, Sprache zu analysieren, Gesichter zu erkennen, Worte zu verstehen.
Das Ergebnis zeigen wir hier unten: zu jedem Video liefert die Maschine
- automatische Gesichtserkennung
- eine mehr oder minder gute Transkription
- Schlüsselwörter aus dem Vortrag – und wo sie gesprochen wurden
- eine Einschätzung, wie positiv/negativ die Stimmung des Vortrags war.
Die Begrüßung durch Tilo Barz und Hanno Terbuyken
Der Vortrag von Karin Schlüter über kreative Zerstörung in den Medien
Der Vortrag von Motoki Tonn über digitale Erneuerung in der Kirche
Der Vortrag von Laura Himmelreich über den jungen Erfolg von Vice
Der Innovations-Workshop von Lina Timm
Kathrin Passig: Veränderung würdevoll ertragen
Anmerkung: Der KI-Workshop mit Microsoft steht zu dieser Demo-Anwendung in keinem Zusammenhang – es gab keine Absprachen; über den Workshop und den Test mit dem VI haben wir unabhängig voneinander entschieden. Aber natürlich konnte man dort ein wenig mehr über die Anwendung dieser Technik erfahren. 😉