Tag Archives: Black Box Verhalten

Wanderer im Nebel: Wieviel KI muss der UX Designer verstehen?

Am Donnerstag, dem 27. Juni 2019 werden Dr. Christian Graf und Folge 3-Geschäftsführer Christoph Fröhlich als Speaker bei der Sitzung des Bitkom Arbeitskreises Usability & User Experience (UUX) über das Verhältnis von UX und KI im Industrie- und Enterprise-Umfeld referieren. Stattfinden wird die Veranstaltung im Digitallabor Lufthansa Innovation Hub in Hamburg.

Von Computersystemen mit ‚versteckten‘ Wirkmechanismen (wie etwa KI-Systeme) getroffene Entscheidungen sind ihrem Wesen nach komplex und kaum direkt nachvollziehbar („Black Box“-Verhalten). Als Folge wirken solche Produkte auf Anwender „magisch“ (positiv interpretiert), aber auch intransparent oder willkürlich (negativ interpretiert). Die Entwicklung solcher Systeme erfordert daher eine besondere Aufmerksamkeit der Schaffenden.

Die Konzepter/UXler müssen bei KI-Systemen verstehen, dass diese Systeme nur das können, wofür sie gemacht und trainiert wurden – sie sind eben nicht magisch und sollten diese Erwartung beim Nutzer auch nicht wecken. Andernfalls ist der ‚Absturz‘ umso größer und schädlicher (Stichwort „uncanny valley“). Um solche Systeme inkl. eines angepassten Erwartungsmanagements zu konzipieren, müssen UXler noch mehr als bisher mit den Fachleuten zusammenarbeiten und selbst Fachexpertise aufbauen. Aber wieviel Details müssen Uxler verstehen um ein gutes Produkt zu machen und welche Details können sie ignorieren? Welche Regeln, Best Practises, oder Codices gibt es schon und wie lassen sich diese anwenden?

Dr. Christan Graf und Christoph Fröhlich werden Beispiele aufzeigen und einen ersten Vorschlag für einen Leitfaden entwickeln, wie die Zusammenarbeit in solchen Projekten zu erfolgreichen, nutzerzentrierten Produkten führen kann.

… mehr zu diesem Projekt: Einsatz von künstlicher Intelligenz bei Folge 3