Usability-Tests

Usability-Tests ist eine Technik in benutzerzentriert Interaktionsdesign Bewertung eines Produkts durch Testen an Benutzern. Dies kann als unersetzlich angesehen werden Benutzerfreundlichkeit Üben Sie, da es direkte Eingaben dazu gibt, wie echte Benutzer das System verwenden.[1] Es befasst sich mehr mit der Design -Intuitivität des Produkts und wird mit Benutzern getestet, die sich nicht vorhaben. Solche Tests sind für den Erfolg eines Endprodukts als voll funktionsfähige Anwendung von größter Bedeutung, die Verwirrung unter seinen Benutzern erzeugt, die nicht lange dauern wird.[2] Dies steht im Gegensatz zu Benutzerfreundlichkeitsinspektion Methoden, bei denen Experten unterschiedliche Methoden verwenden, um eine Benutzeroberfläche zu bewerten, ohne Benutzer einzubeziehen.

Usability-Tests konzentrieren sich auf die Messung der Fähigkeit eines von Menschen hergestellten Produkts, die beabsichtigten Zwecke zu erfüllen. Beispiele für Produkte, die üblicherweise von Usability -Tests profitieren, sind Lebensmittel, Verbraucherprodukte, Websites oder Webanwendungen, Computerschnittstellen, Dokumente und Geräte. Usability -Tests misst die Benutzerfreundlichkeit oder Benutzerfreundlichkeit eines bestimmten Objekts oder einer Reihe von Objekten, während allgemein Menschliche interaktion mit dem Computer Studien versuchen, universelle Prinzipien zu formulieren.

Was es nicht ist

Das einfache Sammeln von Meinungen zu einem Objekt oder einem Dokument ist Marktforschung oder qualitative Forschung eher als Usability -Tests. Usability -Tests beinhalten normalerweise systematische Beobachtungen unter kontrollierten Bedingungen, um festzustellen, wie gut Menschen das Produkt verwenden können.[3] Oft werden jedoch sowohl qualitative Forschungs- als auch Usability -Tests in Kombination verwendet, um die Motivationen/Wahrnehmungen der Benutzer zusätzlich zu ihren Handlungen besser zu verstehen.

Anstatt den Benutzern einen groben Entwurf zu zeigen und zu fragen: "Verstehen Sie das?" verwenden etwas für seinen beabsichtigten Zweck. Wenn beispielsweise Anweisungen zum Zusammenbau eines Spielzeugs getestet werden, sollten die Testpersonen die Anweisungen und eine Schachtel mit Teilen erhalten, anstatt gebeten zu werden, die Teile und Materialien zu kommentieren, sollten sie gebeten werden, das Spielzeug zusammenzustellen. Die Formulierung von Anweisungen, die Qualität der Illustration und das Design des Spielzeugs beeinflussen alle den Montageprozess.

Methoden

Das Einrichten eines Usability -Tests beinhaltet das sorgfältige Erstellen von a Szenario, oder eine realistische Situation, in der die Person eine Liste von Aufgaben mithilfe des Produkts ausführt geprüft während Beobachter beobachten und sich Notizen machen (Dynamische Überprüfung). Einige andere Prüfung Instrumente wie Skriptanweisungen, Papierprototypenund Fragebögen vor und nach dem Test werden auch verwendet, um Feedback zum getesteten Produkt zu sammeln (Statische Überprüfung). Zum Beispiel zum Testen der Befestigungsfunktion eines Email Programm, ein Szenario würde eine Situation beschreiben, in der eine Person einen E-Mail-Anhang senden und sie auffordert, diese Aufgabe zu übernehmen. Ziel ist es zu beobachten, wie Menschen realistisch funktionieren, damit Entwickler die Problembereiche identifizieren und beheben können. Zu den Techniken, die im Volksmund zum Sammeln von Daten während eines Usability -Tests verwendet werden Denken Sie auf Protokoll nach, Co-Discovery-Lernen und Augenverfolgung.

Flurstests

Flurstests, auch bekannt als Guerilla -Benutzerfreundlichkeit, ist eine schnelle und billige Methode der Usability -Tests, bei der Menschen - wie diejenigen, die im Flur vorbeikommen - gebeten werden, das Produkt oder die Dienstleistung zu verwenden. Dies kann Designer helfen, "Ziegelwände" zu identifizieren, die so ernst sind, dass Benutzer in den frühen Phasen eines neuen Designs einfach nicht voranschreiten können. Jeder außer Projektdesignern und Ingenieuren kann verwendet werden (sie fungieren in der Regel als "Experten -Gutachter", weil sie dem Projekt zu nahe sind).

Diese Art von Tests ist ein Beispiel für Bequemlichkeitsabtastung und somit sind die Ergebnisse möglicherweise voreingenommen.

Fern Usability -Tests

In einem Szenario, in dem Usability -Evaluatoren, Entwickler und potenzielle Benutzer in verschiedenen Ländern und Zeitzonen befinden, schafft die Durchführung einer traditionellen Labor -Usability -Bewertung sowohl die Kosten als auch die logistischen Perspektiven. Diese Bedenken führten zu einer Erforschung der Bewertung der Fernbedienbarkeit, wobei der Benutzer und die Evaluatoren über Raum und Zeit getrennt waren. Remote -Tests, die Evaluierungen im Zusammenhang mit den anderen Aufgaben und Technologie des Benutzers ermöglichen, können entweder synchron oder asynchron sein. Ersteres beinhaltet Echtzeit-Einzelunterricht zwischen dem Evaluator und dem Benutzer, während letzteres das Setzen des Evaluators und des Benutzers separat betrifft.[4] Es stehen zahlreiche Tools zur Verfügung, um die Bedürfnisse dieser beiden Ansätze zu befriedigen.

Synchrone Usability -Testmethoden umfassen Videokonferenzen oder verwenden Tools für die Freigabe von Remote -Anwendungen wie WebEx. WebEx und Gotomeeting sind die am häufigsten verwendeten Technologien, um einen synchronen Fern Usability -Test durchzuführen.[5] Synchrone Fernentests fehlen jedoch möglicherweise die Unmittelbarkeit und das Gefühl der "Präsenz", einen kollaborativen Testprozess zu unterstützen. Darüber hinaus kann die Verwaltung der zwischenmenschlichen Dynamik über kulturelle und sprachliche Hindernisse Ansätze erfordern, die für die beteiligten Kulturen empfindlich sind. Andere Nachteile sind die reduzierte Kontrolle über die Testumgebung und die Ablenkungen und Unterbrechungen, die die Teilnehmer in ihrer Heimatumgebung erlebt haben.[6] Eine der neueren Methoden zur Durchführung eines synchronen Fern Usability -Tests ist die Verwendung virtueller Welten.[7]

Zu den asynchronen Methoden gehört die automatische Sammlung von Klick -Streams des Benutzers, Benutzerprotokolle kritischer Vorfälle, die während der Interaktion mit der Anwendung und subjektivem Feedback der Benutzeroberfläche auftreten.[6] Ähnlich wie bei einer In-LAB-Studie ist ein asynchroner Fern Usability-Test aufgabenbasiert und auf der Plattform können Forscher Klicks und Aufgabenzeiten erfassen. Daher ermöglicht es für viele große Unternehmen den Forschern, die Absichten der Besucher beim Besuch einer Website oder einer mobilen Website besser zu verstehen. Darüber hinaus bietet diese Art der Benutzertests auch die Möglichkeit, Feedback nach demografischer, Einstellungs- und Verhaltenstyp zu segmentieren. Die Tests werden in der eigenen Umgebung des Benutzers (und nicht in Labors) durchgeführt, um die Tests des realen Szenarios weiter zu simulieren. Dieser Ansatz bietet auch ein Fahrzeug, mit dem Benutzer schnell und mit niedrigeren organisatorischen Gemeinkosten Feedback von Benutzern in entlegenen Bereichen einholen können. In den letzten Jahren ist das Durchführung von Usability -Tests asynchron ebenfalls weit verbreitet geworden und ermöglicht es den Tester, Feedback in ihrer Freizeit und bequem von zu Hause aus zu geben.

Expertenbewertung

Expertenüberprüfung ist eine weitere allgemeine Methode für Usability -Tests. Wie der Name schon sagt, beruht diese Methode darauf, Experten mit Erfahrung auf diesem Gebiet (möglicherweise von Unternehmen, die sich auf Usability -Tests spezialisiert haben), um die Benutzerfreundlichkeit eines Produkts zu bewerten.

A heuristische Evaluation oder Usability Audit ist eine Bewertung einer Schnittstelle durch einen oder mehrere menschliche Faktorenxperten. Evaluatoren messen die Benutzerfreundlichkeit, Effizienz und Effektivität der Schnittstelle basierend auf Usability -Prinzipien, wie z. Jakob Nielsen 1994.[8]

Zu den Usability -Heuristiken von Nielsen, die sich als Reaktion auf Benutzerforschung und neue Geräte weiterentwickelt haben, gehören:

  • Sichtbarkeit des Systemstatus
  • Match zwischen System und realer Welt
  • Benutzerkontrolle und Freiheit
  • Konsistenz und Standards
  • Fehlerprävention
  • Erkennung eher als Rückruf
  • Flexibilität und Effizienz des Gebrauchs
  • Ästhetisches und minimalistisches Design
  • Helfen Sie den Benutzern, Fehler zu erkennen, zu diagnostizieren und sich von ihnen wiederherzustellen
  • Hilfe und Dokumentation

Automatisierte Expertenbewertung

Ähnlich wie Expertenbewertungen, automatisierte Expertenbewertungen Bereitstellung von Usability -Tests, jedoch durch die Verwendung von Programmen, die Regeln für gutes Design und Heuristiken verwendet haben. Obwohl eine automatisierte Überprüfung möglicherweise nicht so viel Detail und Einblicke liefert wie Bewertungen von Menschen, können sie schneller und konsequenter abgeschlossen werden. Die Idee, Ersatznutzer für Usability -Tests zu erstellen, ist eine ehrgeizige Richtung für die Community für künstliche Intelligenz.

A/B -Test

Bei Webentwicklung und Marketing ist A/B-Tests oder Split-Tests ein experimenteller Ansatz für das Webdesign (insbesondere das Design der Benutzererfahrung), mit dem Änderungen an Webseiten identifiziert werden sollen, die ein Interessesergebnis erhöhen oder maximieren (z. B. Klickrate für eine Bannerwerbung). Wie der Name schon sagt, werden zwei Versionen (A und B) verglichen, die identisch sind, mit Ausnahme einer Variation, die sich auf das Verhalten eines Benutzers auswirken könnte. Version A ist möglicherweise die derzeit verwendete, während Version B in gewisser Hinsicht geändert wird. Zum Beispiel ist der Kauftrichter auf einer E-Commerce-Website in der Regel ein guter Kandidat für A/B-Tests, da selbst marginale Verbesserungen der Abfallraten einen erheblichen Umsatzgewinn darstellen können. Wichtige Verbesserungen sind durch Testen von Elementen wie Text, Layouts, Bildern und Farben zu sehen.

Multivariate Tests oder Bucket -Tests ähneln den A/B -Tests, testen jedoch mehr als zwei Versionen gleichzeitig.

Zahl der Teilnehmer

Anfang der neunziger Jahre,, Jakob Nielsenzu dieser Zeit ein Forscher bei Sun MicrosystemsDas Konzept der Verwendung zahlreicher kleiner Usability -Tests - Typen mit jeweils nur fünf Teilnehmern - in verschiedenen Phasen des Entwicklungsprozesses. Sein Argument ist, dass, sobald sich festgestellt hat, dass zwei oder drei Menschen von der Homepage völlig verwirrt sind, nur wenig gewonnen wird, wenn mehr Menschen das gleiche fehlerhafte Design leiden. "Ausführliche Usability -Tests sind eine Verschwendung von Ressourcen. Die besten Ergebnisse kommen aus dem Testen von nicht mehr als fünf Benutzern und Durchführung von so vielen kleinen Tests, wie Sie sich leisten können."[9]

Die Behauptung von "fünf Benutzern ist genug" wurde später von einem mathematischen Modell beschrieben[10] welche Staaten für den Anteil der unbedeckten Probleme u

wobei P die Wahrscheinlichkeit ist, dass ein Subjekt ein spezifisches Problem und N der Anzahl der Probanden (oder Testsitzungen) identifiziert. Dieses Modell zeigt sich als asymptotisches Diagramm für die Anzahl der realen vorhandenen Probleme (siehe Abbildung unten).

Virzis Formula.PNG

In späterer Forschung wurde Nielsens Behauptung mit beiden befragt empirisch Beweis[11] und fortgeschrittener Mathematische Modelle.[12] Zwei wichtige Herausforderungen für diese Behauptung sind:

  1. Da die Benutzerfreundlichkeit mit dem spezifischen Mengen von Benutzern zusammenhängt, ist es unwahrscheinlich, dass eine so kleine Stichprobengröße für die Gesamtbevölkerung repräsentativ ist
  2. Nicht jedes Usability-Problem ist ebenso leicht zu erkennen. Unverzeihbare Probleme verlangsamen den Gesamtprozess. Unter diesen Umständen ist der Fortschritt des Prozesses viel flacher als von der Nielsen/Landauer -Formel vorhergesagt.[13]

Es ist erwähnenswert, dass Nielsen nach einem einzelnen Test mit fünf Benutzern nicht anhält. Sein Punkt ist, dass das Testen mit fünf Benutzern, die Behebung der Probleme, die sie aufdecken, und dann die überarbeitete Website mit fünf verschiedenen Benutzern zu testen, eine bessere Nutzung begrenzter Ressourcen als ein einziger Usability -Test mit 10 Benutzern durchzuführen. In der Praxis werden die Tests während des gesamten Entwicklungszyklus ein- oder zweimal pro Woche durchgeführt, wobei drei bis fünf Testpersonen pro Runde und die Ergebnisse innerhalb von 24 Stunden an die Designer geliefert werden. Die Anzahl der im Verlauf des Projekts tatsächlich getesteten Benutzer kann also leicht 50 bis 100 Personen erreichen. Untersuchungen zeigen, dass Benutzertests von Organisationen am häufigsten die Rekrutierung von 5-10 Teilnehmern umfassen.[14]

In der frühen Phase, wenn Benutzer am wahrscheinlichsten auf Probleme stoßen, die sie in ihren Spuren stoppen, kann fast jeder mit normaler Intelligenz als Testperson verwendet werden. In der zweiten Stufe rekrutieren Tester Testpersonen in einem breiten Spektrum an Fähigkeiten. In einer Studie zeigten erfahrene Benutzer beispielsweise kein Problem mit einem Design, vom ersten bis zum letzten, während naive Benutzer und selbst identifizierte Power-Benutzer beide wiederholt fehlten.[15] Später sollten Benutzer, wie das Design glättet, aus der Zielpopulation rekrutiert werden.

Wenn die Methode im Verlauf eines Projekts auf eine ausreichende Anzahl von Personen angewendet wird, werden die oben genannten Einwände angesprochen: Die Stichprobengröße hört auf, kleine und Usability -Probleme zu sein, die nur gelegentlich auftreten. Der Wert der Methode liegt in der Tatsache, dass spezifische Designprobleme, sobald sie aufgetaucht sind, nie wieder gesehen werden, weil sie sofort beseitigt werden, während die erfolgreichen Teile immer wieder getestet werden. Während es wahr ist, dass die anfänglichen Probleme im Design nur von fünf Benutzern getestet werden, werden die Teile des Designs, die in diesem ersten Test funktionieren, von 50 bis 100 Personen getestet.

Beispiel

A 1982 Apple Computer Handbuch für Entwickler, die zu Usability -Tests empfohlen wurden:[16]

  1. "Wählen Sie die Zielgruppe aus. Beginnen Sie Ihr menschliches Interface -Design, indem Sie Ihre Zielgruppe identifizieren. Schreiben Sie für Geschäftsleute oder Kinder?"
  2. Bestimmen Sie, wie viel Zielnutzer über Apple Computers und den Gegenstand der Software wissen.
  3. Die Schritte 1 und 2 ermöglichen das Entwerfen der Benutzeroberfläche für die Bedürfnisse der Zielgruppe. Für die Buchhalter geschriebene Steuervorbereitungssoftware werden möglicherweise davon ausgehen, dass ihre Benutzer nichts über Computer wissen, aber Experten für die Steuergesetzbuch sind, während solche für Verbraucher geschriebenen Software möglicherweise davon ausgehen, dass seine Benutzer nichts über Steuern wissen, aber mit den Grundlagen von Apple-Computern vertraut sind.

Apple riet den Entwicklern: "Sie sollten so schnell wie möglich mit der Verwendung von Freunden, Verwandten und neuen Mitarbeitern beginnen."[16]

Unsere Testmethode ist wie folgt. Wir richten einen Raum mit fünf bis sechs Computersystemen ein. Wir planen zwei bis drei Gruppen von fünf bis sechs Benutzern gleichzeitig, um die Systeme auszuprobieren (oft ohne zu wissen, dass es sich eher um die Software als um das System handelt, das wir testen). Wir haben zwei der Designer im Raum. Alles weniger, und sie vermissen viel von dem, was los ist. Noch mehr und die Benutzer haben das Gefühl, dass es immer jemanden gibt, der den Hals einatmet.

Designer müssen zusehen, wie Personen das Programm persönlich verwenden, weil[16]

Fünfundneunzig Prozent der Stolpersteine ​​werden durch Beobachten der Körpersprache der Benutzer gefunden. Achten Sie auf schielen, gebogene Schultern, zitternde Köpfe und tiefe, herzliche Seufzer. Wenn ein Benutzer einen Haken trifft, wird er annehmen, dass "er nicht zu hell ist": Er wird es nicht melden; Er wird es verbergen ... machen Sie keine Annahmen darüber, warum ein Benutzer verwirrt wurde. Frag ihn. Sie werden oft überrascht sein, zu erfahren, was der Benutzer für das Programm zum Zeitpunkt seiner Verlust hielt.

Ausbildung

Usability -Tests waren in verschiedenen Disziplinen ein formales Thema akademischer Unterricht.[17] Usability -Tests sind wichtig für Kompositionsstudien und Online -Schreibunterricht (OWI).[18] Gelehrter Collin Bjork argumentiert, dass Usability -Tests "notwendig, aber nicht ausreichend für die Entwicklung wirksamer OWI sind, es sei denn Digitale Rhetorik. "[19]

Siehe auch

Verweise

  1. ^ Nielsen, J. (1994). Usability Engineering, Academic Press Inc, S. 165
  2. ^ Mejs, Monika (2019-06-27). "Usability -Test: Der Schlüssel zur Entwurfsvalidierung". Stimmung up Team - Softwarehaus. Abgerufen 2019-09-11.
  3. ^ Dennis G. Jerz (19. Juli 2000). "Usability -Test: Was ist das?". Jerz 'Alphabetisierung Weblog. Abgerufen 29. Juni, 2016.
  4. ^ Andreasen, Morten Sieker; Nielsen, Henrik Villemann; Schrøder, Simon Ormholt; Stage, Jan (2007). "Was ist mit Fern Usability -Tests passiert?". Verfahren der Sigchi -Konferenz über menschliche Faktoren in Computersystemen. p. 1405. doi:10.1145/1240624.1240838. ISBN 978-1-59593-593-9. S2CID 12388042.
  5. ^ Dabney Gough; Holly Phillips (2003-06-09). "Remote Online Usability Testing: Warum, wie und wann man es benutzt". Archiviert von das Original am 15. Dezember 2005.
  6. ^ a b Dray, Susan; Siegel, David (März 2004). "Fernmöglichkeiten?: Internationale Benutzerfreundlichkeitstests in der Ferne". Interaktionen. 11 (2): 10–17. doi:10.1145/971258.971264. S2CID 682010.
  7. ^ Chalil Madathil, Kapil; Greenstein, Joel S. (2011). "Synchrone Fern Usability -Tests". Verfahren der Sigchi -Konferenz über menschliche Faktoren in Computersystemen. S. 2225–2234. doi:10.1145/1978942.1979267. ISBN 978-1-4503-0228-9. S2CID 14077658.
  8. ^ "Heuristische Evaluation". Benutzerfreundlichkeit zuerst. Abgerufen 9. April, 2013.
  9. ^ "Usability -Tests mit 5 Benutzern (Jakob Nielsen's Alertbox)". Useit.com. 2000-03-13.; Verweise Nielsen, Jakob; Landauer, Thomas K. (1993). "Ein mathematisches Modell für die Feststellung von Usability -Problemen". Verfahren der Sigchi -Konferenz über menschliche Faktoren in Computersystemen. S. 206–213. doi:10.1145/169059.169166. ISBN 978-0-89791-575-5. S2CID 207177537.
  10. ^ Virzi, R. A. (1992). "Verfeinerung der Testphase der Usability -Bewertung: Wie viele Probanden reicht aus?" Menschliche Faktoren. 34 (4): 457–468. doi:10.1177/001872089203400407. S2CID 59748299.
  11. ^ Spool, Jared; Schroeder, Will (2001). Testen von Websites: Fünf Benutzer sind bei weitem nicht genug. Chi '01 erweiterte Abstracts zu menschlichen Faktoren in Computersystemen. p. 285. doi:10.1145/634067.634236. S2CID 8038786.
  12. ^ Caulton, D. A. (2001). "Entspannen der Homogenitätsannahme bei Usability -Tests". Verhaltens- und Informationstechnologie. 20 (1): 1–7. doi:10.1080/01449290010020648. S2CID 62751921.
  13. ^ Schmettow, Martin (1. September 2008). "Heterogenität im Usability -Bewertungsprozess". Elektronische Workshops im Computer. doi:10.14236/ewic/hci2008.9. {{}}: Journal zitieren erfordert |journal= (Hilfe)
  14. ^ "Ergebnisse des Branchenberichts für Benutzertests von 2020". www.userfountain.com. Abgerufen 2020-06-04.
  15. ^ Bruce Tognazzini. "Windows maximieren".
  16. ^ a b c Meyers, Joe; Tognazzini, Bruce (1982). Apple Iie Design -Richtlinien (PDF). Apple Computer. S. 11–13, 15.
  17. ^ Breuch, Lee-Ann M. Kastman; Zachry, Mark; Spinuzzi, Clay (April 2001). "Usability -Unterricht in technischen Kommunikationsprogrammen: Neue Richtungen in der Lehrplanentwicklung". Journal of Business and Technical Communication. 15 (2): 223–240. doi:10.1177/105065190101500204. S2CID 61365767.
  18. ^ Miller-Cochran, Susan K.; Rodrigo, Rochelle L. (Januar 2006). "Ermittlung effektiver Fernlerndesigns durch Usability -Tests". Computer und Komposition. 23 (1): 91–107. doi:10.1016/j.compcom.2005.12.002.
  19. ^ Bjork, Collin (September 2018). "Integration von Usability -Tests in digitale Rhetorik in OWI". Computer und Komposition. 49: 4–13. doi:10.1016/j.compcom.2018.05.009. S2CID 196160668.

Externe Links