Anmeldung
Anmelden
Neu hier?
Wenn du noch keinen Zugang besitzt, kannst du dich hier registrieren.
Zum Abschluss der Reihe „Von der Idee bis zum User-Testing“ gaben Expertinnen aus der Praxis am 21.05.2024 Einblicke und konkrete Tipps zum User-Testing, die dabei helfen, das eigene Produkt möglichst nah an den Anforderungen der Nutzer*innen zu entwickeln.
Nora Zupan von der Civic Coding-Geschäftsstelle moderierte den virtuellen Austausch mit den folgenden Expertinnen:
User-Testing ist ein Ansatz, um ein Produkt oder eine Idee an „echten“ Nutzer*innen zu testen und zu sehen, wie sie mit der Lösung interagieren, erläuterte Espinosa.
Drei Aspekte seien dabei wichtig:
Espinosa betonte, dass User-Testing zu jedem Zeitpunkt im Projekt eingesetzt werden könne – sowohl am Anfang als auch am Ende des Prozesses sei es sinnvoll. Am Anfang gehe es vor allem darum, ob das Produkt von den User*innen überhaupt gebraucht werde.
„Beim nutzer*innenzentrierten Design muss man bei den Menschen anfangen und schauen, ob es einen Bedarf gibt. Wird das Produkt nicht benötigt, sind auch Aspekte wie Technologie oder Wirtschaftlichkeit nicht wichtig.“
Vanessa Espinosa, Service- und UX-Designerin bei ifok GmbH
Ist das Produkt oder die Idee bereits weiter fortgeschritten, geht es darum, sie zu verbessern und nutzer*innenfreundlicher zu machen. Durch User-Testing können 85 Prozent der Usability-Probleme mit nur fünf User*innen gefunden werden, erklärte Espinosa. Außerdem spare es Zeit und Geld, denn nach dem Launch eines Produkts sei es sechsmal teurer, die Probleme zu lösen als in der Design- oder Testphase. User-Testing erhöhe darüber hinaus die Chancen auf den Markterfolg. Aus diesen Gründen sei User-Testing insbesondere während des Designprozesses sehr geeignet. Hier können den Nutzer*innen Aufgaben gestellt werden, um die Verständlichkeit zu prüfen und mögliche Missverständnisse oder Probleme zu finden. Aber auch bei einem bereits „fertigen“ Produkt sei es noch nicht zu spät für User-Testing und man könne es als Ausgangspunkt für mögliche Verbesserungen sehen oder sogar das ganze Konzept noch einmal in Frage stellen.
Abhängig davon, was man herausfinden möchte, gibt es unterschiedliche Methoden, von denen Vanessa Espinosa einige vorstellte:
Als Tester*innen empfehlen sich laut Espinosa „extreme“ User*innen, das heißt sowohl Personen, die die Lösung bereits nutzen, aber auch solche, die sie noch nicht verwenden, aber ebenfalls nutzen sollten. Dabei sollte die Frage sein, an wen bei der Entwicklung der Lösung nicht gedacht wurde.
Bei der Analyse der Ergebnisse sei es wichtig, Muster zu erkennen. „Das Wichtigste: Man sollte nicht alle Probleme auf einmal lösen. Am Ende des User-Testings hat man eine Liste von Herausforderungen, die man zusammen mit der Kundin priorisieren sollte“, so Espinosa. An dieser Stelle kommen neben der Nutzer*innenerfahrung auch Aspekte wie Umsetzbarkeit ins Spiel. Je nachdem wie viel Zeit und Geld im Projekt zur Verfügung stehen, sind entsprechend viele Iterationen möglich, bis die wichtigsten Probleme der Nutzer*innen gelöst sind.
Fünf Tipps von Vanessa Espinosa für deine erfolgreichen User-Testings
Wie User-Testing in der Praxis aussehen kann, stellte Dimitra Tsovaltzi vom Projekt MITHOS vor. Ausgangslage des Projekts ist, dass Lehrpersonen sich oft überfordert und unvorbereitet fühlen, in einer komplexen Situation in der Klasse richtig zu reagieren. Ziel von MITHOS ist es daher, sie durch immersive Erlebnisse dabei zu unterstützen, ihre Kommunikationskompetenzen zu verbessern und den Umgang mit Konflikten zu üben. Dazu wird eine mixed-reality KI für ein wechelseitiges Trainingssystem mit Echtzeitinteraktion eingesetzt. In personalisierten Konfliktszenarien können sich die Lehrpersonen in einem geschützten Rahmen in vier Trainingsphasen mit herausfordernden Situationen auseinandersetzen.
Da Wirksamkeit und Praxisrelevanz für MITHOS eine große Rolle spiele, sei die richtige Umsetzung des User-Testing sehr wichtig, betonte Tsovaltzi. Jede der Trainingsphasen werde deshalb nach dem Co-Design-Prinzip entwickelt.
„Wir bleiben seit Jahren dem Co-Design-Prinzip treu. Denn es ist nutzer*innenzentriert und hat sich als Erfolgsmodell gezeigt“
PD Dr. Dimitra Tsovaltzi, Deutsches Forschungszentrum für Künstliche Intelligenz GmbH / Projektteam MITHOS
Wie das aussieht, erläuterte sie am Beispiel der ersten Trainingsphase, bei der die Nutzer*innen in der VR-Umgebung mit den Schüler*innen interagieren: Für das systematisch aufgebaute User-Testing arbeiten interdisziplinäre Teams im Sinne von Responsible AI zusammen. Das Training findet in zwei Räumen statt. In einem Raum interagiert die Person mit einem VR-Agenten. Die Daten werden aufgenommen und übertragen. Im zweiten Raum sitzt der sogenannte Wizard, eine trainierte Person, die die Interaktionen der Lehrpersonen synchron evaluiert. Nach Anpassung und Evaluierung wird der Wizard durch ein komplexes hybrides KI-System ersetzt, sodass die Evaluation des Verhaltens der Lehrpersonen automatisch erfolgt. Die Emotionserkennung basiert auf multimodalem maschinellem Lernen und Emotionsmodellierungen. Wenn das finale System (be)steht, findet eine Evaluation des Gesamtkonzepts statt.
Tsolvatzi stellte heraus, dass das Konzept der affektiven Modellierung in der Affective Computing Group des DFKI ein breites Konzept umfasst, das über Gesichtsausdrücke hinausgehe und auch den Kontext sowie die personenbezogene Erfahrung betrachte. Diese Modelle werden durch User-Testing in unterschiedlichen Projekten weiterentwickelt.
User*innen lassen sich durch Communities finden, die es zu jedem beliebigen Thema gebe, berichtete Espinosa. So kam sie in einem Projekt zum Thema Wohnungslosigkeit über Sozialarbeiter*innen in Kontakt zu wohnungslosen Personen. Auch durch Kund*innen und deren Wissen über die Nutzer*innen können entsprechende Communities gefunden werden.
Im Projekt MITHOS konnten User*innen über Praxispartner wie die Universität des Saarlandes, die jährlich hunderte Lehrpersonen ausbilden, gewonnen werden.
Espinosa hob hervor, dass User-Testing bei digitalen Produkten nicht ohne Prototypen möglich sei. Dafür seien z. B. Tools wie Figma gut geeignet.
Mehr über die Entwicklung von Prototypen erfährst du in unserem Nachbericht zum Civic Coding-Forum zum Thema Prototyping.
Als weiterer Aspekt wurde die Nutzung von Incentives (Anreize zur Teilnahme, beispielsweise in Form von Geld) diskutiert. Vanessa Espinosa hat bisher keine Incentives eingesetzt: „Nutzer*innen wollen ihre Gedanken und auch ihre Frustration mit einem Produkt weitergeben, damit es sich verbessert.“ Dimitra Tsovaltzi fügte hinzu, dass Incentives auch Ergebnisse verfälschen können.
Um eine authentische Reaktion bei den User*innen hervorzurufen, sei laut Espinosa vor allem das Initialgespräch wichtig. Hier sollte eine angenehme Atmosphäre kreiert werden, in der Nutzer*innen sich wohl dabei fühlen, ihre Gedanken zu teilen. Manchmal könne es auch hilfreich sein, Auftraggeber*innen zu den User-Testings miteinzuladen, damit sie das Feedback direkt hören.
Am Ende betonten beide Expert*innen noch einmal, dass es sich lohne, Zeit für das User-Testing zu investieren und sich schon mit wenig Aufwand viel über mögliche Probleme eines Produkts lernen lasse. Wichtig sei, dass man früh anfange zu testen, um nachschärfen zu können, bevor ein Abbruch notwendig ist, wenn bereits zu viel investiert wurde.
Du hast die Veranstaltung verpasst? In der Civic Coding-Community kannst du dir die Aufzeichnung ansehen – registriere dich jetzt!
Jetzt anmelden und keine Neuigkeiten verpassen! Mit dem Civic Coding-Update wollen wir dich über Veranstaltungen, Förderangebote und Projekte aus der Initiative und der KI-Welt auf dem Laufenden halten.