IFeL blog

Structure, Dialogue and Autonomy


Leave a comment

Im Auge des Betrachters

Aufgrund unserer gemeinsamen Forschungsinteressen haben wir in Zusammenarbeit mit Wissenschaftlern der TU Wien (Gergely Rakoczi, Margit Pohl) für das “Lehrbuch für Lernen und Lehren mit neuen Technologien” (L3T) einen Artikel zur visuellen Gestaltung von Lernmaterialien- und Applikationen unter dem Titel “Sieht gut aus – Visuelle Gestaltung auf wahrnehmungspsychologischen Grundlagen” verfasst.

Die visuelle Gestaltung von Lehr- und Lernmaterialien wird häufig nach reinem Gutdünken vorgenommen und hat oft zum Ziel, bestimmte Inhalte gut aussehen zu lassen. In unserem Kapitel wollen wir aber gerade darauf hinweisen, dass die visuelle Gestaltung nicht reines “Stilmittel” ist, sondern darüber hinaus auch sehr wohl “funktional” eingesetzt werden kann (bspw. zur Aufmerksamkeitssteuerung) oder sinnvolle Gestaltungsrichtlinien aus der Kenntnis unseres Wahrnehmungssystems abgeleitet werden können (bspw. bei der Typographie).

Für Interessierte ist der Artikel über diesen Link frei zugänglich:

http://l3t.eu/homepage/das-buch/ebook-2013/kapitel/lesen/o/id/99

Ich hoffe es ist uns gemeinsam gelungen aufzuzeigen, dass die visuelle Gestaltung von Lerninhalten- und Applikationen nicht nur eine Frage des “schön Aussehens” ist, sondern dass sie auch gezielt bestimmte Funktionen erfüllen oder Wahrnehmungsprozesse steuern/beeinflussen kann. Was denken Sie?


Leave a comment

The Human Factor

The International Conference on Human Factors in Computing & Informatics (southCHI 2013) was  an opportunity to present the latest results of the IFeL Usability Lab in the domain of eReading research. In a pilot experiment for our recent eReading study we tested on-screen reading (LED and eInk) under different contrast conditions.

Focusing on the type of contrast (i.e. light text on dark background vs. dark text on light background) and its influence on readability are discussed controversialy in internet forums and blogs related to e-reading and web design.

Most seems to think that a negative contrast (i.e. dark text on light background) is suited best for reading, while others claim positive contrast (i.e. light text, dark background) to be more relaxing for the eyes and less fatiguing.

Since previous research is inconclusive on this matter, we conducted an eye tracking study comparing central eye movements involved in reading.

The results showed two things:

  • First, there was no significant difference in central eye movements involved when reading on-screen-text either dark-on-light or light-on-dark.
  • Second, the subjective readability-ratings showed a significant preference of dark-on-light text materials.

What does this imply for web and e-reading designers? Though we have yet to analyze the follow-up study’s data, it actually seems to make no difference to apply either positive or negative contrast, as long as it is distinctive.
But – the human factor – people seem to prefer reading with negative contrast.


Leave a comment

Objektive und subjektive Nutzerdaten in Usability-Tests

Am diesjährigen Kongress der Deutschen Gesellschaft für Psychologie hatte ich die Gelegenheit in der Arbeitsgruppe Mensch-Maschine Interaktion: Aktuelle Herausforderungen in der Usability-Forschung unter der Leitung von Dr. Andreas Sonderegger in Vertretung für Dr. Eva Siegenthaler ihre Forschungsergebnisse zu präsentieren. Das Referat unter dem Titel The Relationship Between Eyetracking-Data and User Ratings in Usability Testing stellte Ergebnisse aus unseren IFeL-Studien vor, welche wir im Bereich des E-Reading durchgeführt haben:

Ein gängiges Problem der Usability-Forschung stellt nämlich der Umstand dar, dass die Testergebnisse häufig auf persönlichen Urteilen der Nutzer beruhen. Diese Nutzer-Urteile sind damit subjektiv und werden durch verschiedene unkontrollierbare Variablen beeinflusst, was die Aussagekraft solcher Untersuchungen in Frage stellen kann. Unsere Eyetracking-Untersuchungen zeigen hier auf, dass Nutzer die Lesbarkeit auf verschiedenen E-Reading-Geräten subjektiv gut einschätzen können, wenn sie noch keine Erfahrung im Umgang mit den Geräten gesammelt haben. Wenn allerdings im Rahmen eines Usability-Tests bereits viel mit dem E-Reading-Gerät interagiert wurde, verzerrt sich das Urteil der Nutzer nachweislich – die Übereinstimmung zwischen objektiven Eyetracking-Daten und subjektiven Nutzer-Urteilen nimmt ab. Dies bedeutet konkret, dass je besser die Usability eines Gerätes eingeschätzt wird (positive vorgängige User Experience), umso besser wird auch aktuell die Lesbarkeit auf diesem Gerät beurteilt. Umgekehrt führt eine schlechte, antizipierte Usability zu schlechteren Lesbarkeits-Urteilen.

Die obige Darstellung stellt eben diesen Sachverhalt in verallgemeinerter Form etwas vereinfacht dar. In den Kästchen links stehen exemplarisch einige Variablen, welche die User Experience beeinflussen. Je nachdem, ob die Erfahrung im Umgang mit dem Gerät positiv oder negativ ausfällt, hat das Auswirkungen auf den Zusammenhang zwischen den im Rahmen eines Usability-Tests erfassten objektiven und subjektiven Kennwerten!

Was bringt uns das nun für die Praxis?

  • Eine konkrete Empfehlung besteht darin, dass man – soweit machbar – möglichst objektive Methoden zur Erfassung zentraler Kennwerte verwenden sollte, um solche systematischen Verzerrungen zu vermeiden.
  • Des Weiteren sollte man sich gut überlegen, zu welchem Zeitpunkt in einem Usability-Test Urteile der Nutzer eingeholt werden. Im obigen Lese-Beispiel wäre es demnach nicht ratsam, die subjektiven Ratings zur Lesbarkeit der Geräte erst nach einer eingehenden Interaktion mit dem Gerät einzuholen!
  • Zu guter Letzt: Wer sich nicht sicher ist, ob die User Experience einen Einfluss auf die in Frage stehende Grösse hat und diese auch nicht zuverlässig objektiv erfassen kann (in unserem Beispiel wird etwa die Lesbarkeit von Texten auf e-Reading-Geräten mittels Eye-Tracking erfasst), sollte sicherheitshalber zweimal befragen.


2 Comments

Wie anstrengend ist Lernen fürs Gehirn?

Auf welche Weise beeinflussen verschiedene Lernformen die Arbeitsbelastung des Gehirns?

Mit dieser Frage nach der mentalen Anstrengung beim Lernen setzt sich die Cognitive Load Theory auseinander. Das IFeL beschäftigt sich seit Anfang dieses Jahres zunehmend mit dieser Theorie und den damit zusammenhängenden Fragestellungen. Das zentrale Problem, das die Forscher schon lange beschäftigt: Wie kann man objektiv bestimmen, wie viele und welche Ressourcen des Arbeitsgedächtnisses durch eine Tätigkeit beansprucht werden?

Das Problem liegt hier darin, dass in der grossen Mehrheit der Studien subjektive Methoden zur Bestimmung der mentalen Anstrengung zum Einsatz kommen. Unter den Begriff subjektive Methoden fallen dabei all jene Erhebungsinstrumente in der psychologischen Forschung, welche von den Versuchspersonen eine direkte Auskunft, beispielsweise im Rahmen eines Interviews oder einer Fragebogenuntersuchung, erfordern. Diese basieren aber häufig lediglich auf einzelnen Fragebogen-Items und können deshalb stark von den untersuchten Personen beeinflusst werden, da sie beim Ausfüllen eines Fragebogens ihre Antwort überdenken können: Das hat zur Folge, dass nicht mehr völlig objektiv geantwortet wird. Zudem stellt sich die Frage, ob die erlebte mentale Anstrengung zur Erledigung einer Lernaufgabe im nachhinein überhaupt durch die Versuchspersonen verlässlich wiedergegeben werden kann. Daher laufen momentan die Anstrengungen in die Richtung, dass man anhand von objektiven Leistungskennwerten (=?) bestimmt, inwiefern eine Versuchsperson durch eine bestimmte Aufgabe an die Grenzen ihrer mentalen Verarbeitungskapazität gebracht wurde.

Eine solche Methode ist die Technik der Doppelaufgaben (engl.: Dual Task). Die grundlegende Idee ist relativ simpel: Wenn ich zwei Aufgaben gleichzeitig bearbeiten muss, so werde ich, sobald mein „Arbeitsspeicher“ voll ausgelastet ist, in einer der beiden Aufgaben Abstriche machen müssen damit ich in der anderen Aufgabe keine Leistungsverschlechterung zeige. Ein solcher Leistungs-Kompromiss wird auch als trade-off bezeichnet. Dies setzt voraus, dass eine der beiden Aufgaben vom Probanden als vorrangig angesehen wird und die Leistung der Zweitaufgabe tatsächlich derjenigen der Primäraufgabe untergeordnet wird. Darüber hinaus muss die Arbeitsbelastung der beiden Aufgaben zusammengenommen grösser sein als man tatsächlich bewältigen kann, da ein trade-off  sonst überhaupt nicht notwendig wird.

Insofern kann also die Leistung in der Zweitaufgabe als Indikator dafür herbeigezogen werden, wie viel Kapazität über die Aufgabe A hinaus verfügbar – und damit in die Bearbeitung der Zweitaufgabe investierbar – ist. Mit diesem Vorgehen lässt sich also indirekt bestimmen, wie anstrengend eine Aufgabe für unser Gehirn ist und welchen Einfluss verschiedene Lernformen oder das Arbeiten im Team darauf haben.

Und was spielt es beim Lernen für eine Rolle, ob ich eine Aufgabe alleine oder im Team löse?

Dieser Frage nach dem Einfluss der Zusammenarbeit auf die mentale Anstrengung beim Lernen wurde am IFeL mittels eines innovativen Versuchsaufbaus nachgegangen. Was denken Sie, hilft die Arbeit im Team das Gehirn bei der Arbeit zu entlasten oder bewirkt sie, dass wir beim Lernen schneller an unsere Grenzen stossen?


Leave a comment

MoodleMoot 2012: Workshop Usability

Welche Usability-Probleme stellen sich bei der Entwicklung von Lernmodulen in Moodle? Und wie macht man diese ausfindig und was kann man dagegen tun? Diesen und ähnlichen Fragen wurde an der MoodleMoot 2012 in Münster (D) im Rahmen des von Andreas Hediger und Yves Bochud durchgeführten Workshops Der Usability-Ansatz in der Entwicklung eines innovativen Moduls nachgegangen.

Im 90-minütigen Workshop erfuhren die Teilnehmer, wie das am IFeL neu entwickelte Modul COSAMUI in Moodle implementiert wurde und wie wir mittels einer Kombination von verschiedenen Testverfahren die Navigation und auch die Instruktion des Moduls geprüft und verbessert haben. Die Testung des Moduls mit bereits wenigen Personen gab Aufschluss zur Verbesserung der Usability, wodurch das Modul für die Nutzer verständlicher und einfacher zu bedienen wird. Zudem zeigte die Testung von COSAMUI auf, dass sich auch relativ komplexe Lernszenarien in Moodle abbilden und durchführen lassen.

Zum Einstieg des Workshops erläuterte Andreas Hediger das Modul COSAMUI, welches im Usability-Test optimiert wurde. Anschliessend gab ich eine Einführung in die Thematik der Usability und erläuterte den methodischen Ansatz des IFeL. In einem zweiten Teil wurde anhand praktischer Beispiele diskutiert und aufgezeigt, wo sich bei diesem Modul Usability-Probleme ergeben haben. Besonders aufschlussreich für die Teilnehmer des Workshops waren die Eyetracking-Aufnahmen, anhand derer sich der Blickpfad der Nutzer genau studieren lässt: So konnten die Teilnehmer bspw. sehen, wie sich ein Nutzer verhält, der im Modul «verloren» geht und sich mit der Navigation nicht zurecht findet. Zudem zeigen die Videoaufnahmen des Usability-Tests auf, was passiert, wenn ein Nutzer aufgrund unklarer Instruktionen verwirrt wird oder sich nicht sicher ist, was er als nächstes zu tun hat.

Eine PDF-Version der Powerpoint-Präsentation des Workshops finden Sie hier.

Die MoodleMoot 2012 in Münster überzeugte mich – neben der schönen Lokalität und der guten Organisation – durch eine breite thematische Abdeckung der angebotenen Referate und Workshops. Im Zentrum des Interesses standen in diesem Jahr aus meiner Sicht Moodle 2.x, Repositories, aber auch die Verwendung von Moodle mit mobilen Endgeräten. Die Evaluation des Tablet-Einsatzes an der FFHS im Herbstsemester 2011/12 wird momentan abgeschlossen und einige Ergebnisse daraus zu gegebener Zeit ebenfalls hier im Blog zugänglich gemacht.