Künstliche Intelligenz hört mit: Die Vorträge ausgewertet von Microsofts „Video Indexer“

Können wir eine dieser Zukunfts-Techniken, von denen wir auf unserer Konferenz reden, auch selbst einsetzen? Wir haben ein Experiment mit einem kommerziell verfügbaren Dienst gewagt: dem Video Indexer des Windows-Herstellers Microsoft. Der Video Indexer versucht, ein Video zu verstehen – was gesagt wurde und von wem. 

Eine Maschine hört, was Menschen sagen

Der „Video Indexer“ ist einer der Online-Dienste, die Microsoft unter dem Namen „Cognitive Services“ vermarkten und vermieten will – und die auf Techniken der so genannten „Künstlichen Intelligenz“ basieren: Maschinen, die Gehirnstrukturen nachbilden – neuronale Netze – und die trainiert werden, Sprache zu analysieren, Gesichter zu erkennen, Worte zu verstehen.

Das Ergebnis zeigen wir hier unten: zu jedem Video liefert die Maschine 

  • automatische Gesichtserkennung
  • eine mehr oder minder gute Transkription
  • Schlüsselwörter aus dem Vortrag – und wo sie gesprochen wurden
  • eine Einschätzung, wie positiv/negativ die Stimmung des Vortrags war.

Die Begrüßung durch Tilo Barz und Hanno Terbuyken

 

Der Vortrag von Karin Schlüter über kreative Zerstörung in den Medien

 

Der Vortrag von Motoki Tonn über digitale Erneuerung in der Kirche

Der Vortrag von Laura Himmelreich über den jungen Erfolg von Vice

Der Innovations-Workshop von Lina Timm

Kathrin Passig: Veränderung würdevoll ertragen

Anmerkung: Der KI-Workshop mit Microsoft steht zu dieser Demo-Anwendung in keinem Zusammenhang – es gab keine Absprachen; über den Workshop und den Test mit dem VI haben wir unabhängig voneinander entschieden. Aber natürlich konnte man dort ein wenig mehr über die Anwendung dieser Technik erfahren. 😉