Blockchain, Chatbots und KI: Die Trends im Überblick
Alexa: Erfolgreich dank Skills
Einen Teil ihres Erfolgs verdankt die Alexa-Plattform der Simplizität der Entwicklung von Skills. Developer können bereits bestehendes Know-how nutzen. Das Design der Benutzerinteraktionen mit Alexa erfordert die Nutzung von Amazons webbasierten Tools; im Backend hat der Coder mehr Flexibilität. Zur Auswahl stehen derzeit zwei Optionen:
- AWS Lambda ARN (serverless): Der voll verwaltete serverlose Computing-Service von Amazon führt Programmcode ereignisgetrieben aus.
- HTTPS (bereitgestellt durch einen beliebigen Webserver): Der Anwendungscode kann von HTTPS-Webservern ausgeführt werden.
Serverloses Computing: eine Lambda-Funktion als Alexa-Skills-Endpunkt
Die Bereitstellung von AWS Lambda durch Amazon illustriert einen weiteren Trend: Serverless Computing. Bei diesem verwalteten Dienst werden Anfragen ereignisgetrieben abgearbeitet. Es läuft alles ohne (sichtbare) Server-Instanzen ab. Für die bedarfsgerechte Skalierbarkeit und Hochverfügbarkeit zeichnet AWS verantwortlich. Die Flut von Big Data aus IoT-Sensorik der smarten Fabrik, Logistik und der Gesellschaft 4.0 mit dem smarten Zuhause benötigt leistungsstarke Algorithmen zur Auswertung der Daten und eine (semiautonome) intelligente Steuerung der Endgeräte. Die Entstehung von Marktplätzen für Algorithmen ist die Folge. Googles Kaggle.com und Algorithmia.com sind die neuen App-Stores. Anwendungsentwickler können das Wissen von Data Scientists zurate ziehen und die eigene Software mit datengetriebenen Features auf Basis fortgeschrittener Algorithmen anreichern. Beispiele solcher Algorithmen, die im Cloud-Backend einer App massive Datenmengen interpretieren können, fallen in eine oder mehrere Kategorien. Zu diesen zählen:
- Textinterpretation und Verarbeitung natürlicher Sprache: Extrahieren von Adressdaten aus beliebigen Texten, Sentimentanalyse einer Marke in sozialen Netzen, Ausführung von Sprachbefehlen (zum Beispiel Baidu), Aufspüren von Phishing-Webseiten.
- Empfehlungssysteme: Affinitätsanalyse für Inhalts- oder Warenkorbempfehlungen und vieles andere, wie sie die sozialen Netzwerke Pinterest (mit der Technik des eingekauften Start-ups Kosei) und Twitter mit dem Feature Curated Timelines praktizieren.
- Klassifizierung von Daten: Interpretieren von Bildmotiven in Videos (zum Beispiel zur Bereitstellung einer Suche nach visuellen Merkmalen oder zum maschinellen Taggen von Inhalten); diese Form des maschinellen Lernens hat unter anderem der Dienst Yelp zur Perfektion entwickelt.
- Deep Learning und prädiktive Analyse: Diagnostizieren von Krankheiten anhand von Daten aus medizinischen Instrumenten (eine Domäne von IBM), Klassifizieren von Personen anhand von Fotos nach demografischen Merkmalen wie Alter oder Geschlecht, Erkennen von Kaufauslösern (Spezialist: Salesforce Einstein), Optimieren von Konversionsraten im E-Commerce (zum Beispiel der Dienst Edgecase) und vieles andere.
Mit der wachsenden Bedeutung von Daten nimmt auch die Datenvisualisierung an Gewicht zu. Unverfängliche Methoden zum Visualisieren einer Datenquelle sind gefragter denn je. Die aufkeimende Algorithmenwirtschaft fördert die Entstehung ausgefeilter Webdienste und demokratisiert den Zugriff auf ausgefeilte KI-Logik für smartere Webanwendungen. Die Möglichkeiten sind vielversprechend. Dank leistungsstarker Frameworks müssen Webentwickler neuerdings auch vor Deep Learning und prädiktiver Modellierung nicht mehr haltmachen. Die Webagentur Label305 hat nach nur vier Wochen Tüftlerei ein Vorschlagssystem entwickelt, das menschlichen Dolmetschern des Crowd-Übersetzungsdiensts Fairlingo.com beim Suchen der richtigen Worte auf die Sprünge hilft. Das System nutzt ein neuronales Netzwerk auf der Basis von TensorFlow in Python und wurde für Niederländisch–Englisch auf einer Nvidia-Grafikkarte (GeForce GTX 1080 Ti) trainiert.
Frameworks wie TensorFlow erlauben den Aufruf sehr komplexer mathematischer Funktionen und den Aufbau mehrschichtiger neuronaler Netze mit nur wenigen Zeilen Source Code. Für Webentwickler gilt es, sich nicht einschüchtern zu lassen. Wer eine noch höhere Abstraktionsebene wünscht, kann hierzu noch weitere quelloffene Bibliotheken zurate ziehen – im Fall von TensorFlow zum Beispiel tflearn.