Johannes Unterstein: Nach DevOps kommt VoiceOps? Wie Alexa und co. das Leben von Devs und Ops erleichtert

Die API von Alexa macht es unglaublich einfach eigene Anwendungen zu implementieren, welche direkt von der dort angebotenen Spracherkennung profitieren. Im Hintergrund können Anwendungen mit bekannten Java-Technologien, wie z.B. SpringBoot etc., implementiert werden und genießen die gleichen Freiheitsgrade, wie jede andere Java-Anwendung auch. Der große Vorteil ist allerdings, dass diese direkt mit der eigenen Stimme gesteuert werden können.

In dieser Session wird gezeigt, wie die grundlegende Funktionsweise der Alexa API aussieht und wie man eine eigene Anwendung mit Java implementiert und in Alexa integriert. Dabei wird auf gute Sprachmuster eingegangen, gezeit wie Alexa diese am Besten erlernt und was dabei zu beachten ist. Das ganze wird an einer echte Anwendung gezeigt in der Alexa mit Elasticsearch kommuniziert und dadurch das Leben von Devs und Ops erleichtert.

Johannes Unterstein (@unterstein) organisiert die Java User Group in Kassel, lehrt an der DHBW Stuttgart und arbeitet als Distributed Applications Engineer bei Mesosphere. Er arbeitet an Marathon, dem Container-Orchestrierung-Framework von DC/OS, um Twitter-Like-Scaling für jedermann zu ermöglichen. Trotz der großen Faszination von Containern und deren Orchestrierung, kann er es sich nicht verkneifen, oft über Elasticsearch und Neo4j zu sprechen.

Twitter: @unterstein
Linkedin: unterstein
Github: unterstein