#!/usr/bin/perl print qq§Content-Type: text/html §;

1.Einleitung
Im folgendem möchte ich den Artikel von S. Maaß über Software-Ergonomie,
der in der Zeitschrift "Informatik Spektrum" 1993 im Heft Nr. 16 erschienen ist,
zusammenfassend wiedergeben. In diesem Text geht es um die Problematik der
Gestaltung von Softwareprodukten, die am Benutzer und seinen Aufgaben
ausgerichtet sind.
Es ist nicht selbstverständlich, daß Anwendungen nach den Vorstellungen der
Programmierer benutzt werden können. Auch wenn die Spezifikation erfüllt ist
und Funktionalität der Anwendung korrekt den Erwartungen entspricht, sagt
dies wenig über die Brauchbarkeit des Systems aus. Oft wird bei der
Entwicklung von Software die Konzentration auf die technischen Möglichkeiten
und Gesichtspunkte wie Effizienz gelegt und andere entscheidende Faktoren
außer Acht gelassen, die beim Arbeiten mit EDV-Systemen eine Rolle spielen.
Neben der Technik bestimmen Mensch, Aufgabe und organisatorischer Rahmen
die Gegebenheiten an einem computergestützten Arbeitsplatz. Das Ziel der
Software-Ergonomie ist ein bestmögliches Zusammenwirken dieser
Bestandteile. Dadurch erhält die Software-Ergonomie einen stark
interdisziplinären Charakter. Beiträge kommen hier aus den Bereichen kognitive
Psychologie, Arbeitswissenschaft, Linguistik, Anthropologie, Soziologie und
Informatik. Entsprechend der Vielfalt der Disziplinen, die auf dem Gebiet
vertreten sind, sind die Erkenntnisse, die man durch Forschung erhält, komplex.
Man erhält dabei nicht auf jedes Problem der Software-Ergonomie eine
befriedigende Antwort. Lösungsansätze sind hier erheblich vom Kontext
abhängig, in dem die betreffende Software benutzt wird.
Die Gliederung dieses Textes lehne ich an die Gliederung des Orginaltextes von
Maaß an. Zuerst stelle ich die drei Grundrichtungen der Software-Ergonomie
vor, dann zeige ich Schwierigkeiten auf, die auf diesem Gebiet auftauchen, und
sage etwas über den heutigen Stand der Diskussion und die praktisch
verwertbaren Ergebnisse, die aus ihr entstanden sind. Darauf folgt eine
Übersicht über zukünftige Trends und zum Schluß eine Wiedergabe meiner
eigenen Meinung zum Thema.

2. Drei Grundrichtungen der Software-Ergonomie
In den 70er Jahren wurden Computer immer mehr von Menschen benutzt, die
keine Computerexperten waren. Zu dieser Zeit war die Handhabung von
Anwendungsprogrammen für Techniklaien schwierig, da es mühsam war, über
formale Kommandos mit dem Rechner zu interagieren und die
Bildschirmdarstellung sehr unübersichtlich war.
Bemühungen, diese Situation zu verbessern, fingen mit unsystematischen
Ratschlägen an und entwickelten sich in den 80er Jahren zum Forschungsgebiet
Software-Ergonomie. Gleichzeitig begannen Soziologen, sich für die
Auswirkungen der EDV auf Wirtschaft und Verwaltung zu interessieren, und so
bekam das Gebiet der Software-Ergonomie interdisziplinären Charakter.

2.1 Der technische Schwerpunkt
Die Informatik war lange Zeit ein rein technikorientiertes Fach und so versuchte
man zuerst mit informationstechnischen Mitteln die Benutzbarkeit von
Systemen zu verbessern. Die Verarbeitungsgeschwindigkeit der Hardware
wurde gesteigert und die Möglichkeiten für die Ein- und Ausgabe
weiterentwickelt (z.B. Maus, hochauflösende Graphik).
Eine entscheidende Vereinfachung des Mensch-Rechner-Dialogs brachte das
Prinzip der "direkten Manipulation" (Shneiderman, 1983). Virtuelle Objekte im
System wurden bildhaft dargestellt und somit verständlicher. Die Verwendung
von Fenstern (mit Einsatz der Maus) auf der Benutzeroberfläche gab eine
bessere Übersicht und machte das Arbeiten am Rechner durch die gleichzeitige
Anzeige von Objekten sowie Abläufen effizienter.
Die Einführung von "Hypertext-Systemen" war der nächste Schritt in der
Entwicklung von benutzerfreundlichen Systemen. Zusätzlich zur direkten
Manipulation können hier komplexere Informationsstrukturen verständlich
dargestellt werden. In diese Strukturen wurden erst nur Texte, dann auch Bilder,
Töne und Videofilme eingebunden. Der Computer wurde so zum multimedialen
Werkzeug.
Einen Zukunftstrend in der Software-Ergonomie beschreibt der Begriff "virtual
reality". Hier soll der Benutzer durch neue Ein- und Ausgabegeräte mit
künstlichen Sinneswahrnehmungen in einer virtuellen Welt handeln.
Um die Entwicklung von benutzerfreundlichen Anwendungen zu vereinfachen,
entstanden Software-Werkzeuge. Mit ihnen müssen Programmierer die äußere
Darstellung ihrer Programme nicht mehr in allen Einzelheiten selbst
implementieren, sondern können auf fertige, bekannte Formen zurückgreifen.
Der technische Ansatz liefert theoretische Modelle, die den Mensch-Rechner-
Interaktion beschreiben. Das "Seeheim-Modell" (Pfaff, 1985) unterteilt diese in
eine Anwendungs-, eine Dialogkontroll- und eine Präsentationskomponente.
Das "IFIP-Modell für Benutzerschnittstellen" (Dzida, 1983) unterscheidet die
Ein-/Ausgabeschnittstelle, die Dialogschnittstelle, die Werkzeugschnittstelle und
die Organisationsschnittstelle.

2.2 Der kognitiv-psychologische Schwerpunkt
Bei der Analyse bestehender und der Gestaltung neuer Systeme wurden auch
psychologische Modelle der menschlichen Wahrnehmung und
Informationsverarbeitung angewendet. So konnte die bildliche Darstellung nach
kognitiv-psychologischen Aspekten verbessert werden und konkrete Angaben
z.B. über die maximale Tiefe von Menübäumen gemacht werden.
Forschungen mit dem psychologischen Ansatz führten zu neuen Hilfestellungen
für die Benutzer. Ein Verfahren ist hier beispielsweise das eigenständige,
spielerische Erkundschaften des Computersystems.
Ein Modell über die Mensch-Rechner-Interaktion macht zwei "Abgründe"
deutlich, von denen einer der "gulf of execution" und der andere der "gulf of
evaluation" (Norman, 1986). Mit diesen Abgründen ist die Schwierigkeit des
Benutzers bei folgendem Vorgang gemeint: Der Benutzer führt nach seinen
Absichten Aktionen an der Mensch-Rechner-Schnittstelle aus (execution), er
erhält eine Ausgabe und muß diese in bezug auf seine Absichten auswerten
(evaluation). Dabei ist wichtig, daß der Anwender sieht, welche Möglichkeiten
ihm das System gibt und was seine Eingaben bewirken.
Das bekannteste psychologische Modell über die Mensch-Computer-Interaktion
ist das GOMS-Modell (goals, operators, methods, selection rules) nach Card,
Moran und Newell von 1983. Der Mensch wird dabei als
Informationsverarbeiter betrachtet, der ähnlich einem Rechner strukturiert ist
und Probleme löst, indem er von einem Anfangszustand aus über eine Folge von
Operationen zum Zielzustand gelangt. Zahlen über die
Verarbeitungsgeschwindigkeit des Menschen gehen dann in die
Systemgestaltung ein, um die Bearbeitungszeiten zu minimieren.
Andere Modelle fassen die Denkvorgänge des Benutzers als Grammatiken auf.
Mit ihnen können zumindest bestehende Schnittstellen auf ihre Erlernbarkeit hin
verglichen werden.
Hinter dem GOMS-Modell steht ein eigener Bereich innerhalb der kognitiv-
psychologischen Software-Ergonomie, der den Einsatz von quantitative
Methoden auf dem Gebiet fordert. Das Modell ist stark umstritten, weil es
gelegentliche Benutzer, bei denen das Erlernen eines Systems oft eine Rolle
spielt, nicht berücksichtigt.
Das andere Lager, die Befürworter von qualitativen Methoden geht
experimentell vor. Anwender werden bei der Arbeit mit EDV-Systemen nach
Schwierigkeiten befragt und die Forscher kommen so zu neuen Erkenntnissen
über die Gestaltung von Softwaresystemen.

2.3 Der arbeitspsychologische Schwerpunkt
Diese Herangehensweise ist vor allem in Europa vertreten. Die Software-
Ergonomie wird hier in den Kontext von humaner Arbeitsorganisation gestellt
und allgemeine Merkmale für Arbeitsbedingungen auf sie angewendet
Eine Arbeitstätigkeit ist nach Ulich (1991) human, wenn der Ausführende von
ihr nicht gesundheitlich und psychosozial geschädigt oder beeinträchtigt wird,
die Arbeit zumutbar ist, d.h.. Bedürfnissen und Qualifikation entspricht, die
Persönlichkeit fördert und die Arbeitsbedingungen beeinflußt werden können.
Diese Forderungen stehen im Widerspruch zu anfänglichen Prinzipien von
Software-Ergonomie, die dem Benutzer durch "narrensichere" Systeme kaum
Freiheiten gelassen hatten, um Fehler zu vermeiden. Dabei wurden allerdings
die Qualifikationen des Benutzers ignoriert, daher sind solche Systeme
arbeitspsychologisch gesehen mangelhaft.
Volpert und Hacker haben 1975 bzw. 1986 die Theorie der psychischen
Handlungsregulation entwickelt, die Grundlage für humane Arbeitsgestaltung
sind. Hier wird die Arbeit in unterschiedliche Anspruchsebenen unterteilt. Die
Handlungsregulation verläuft so, daß die Ebenen, für jede Handlung
nacheinander, von der anspruchsvollsten zur einfachsten durchlaufen werden.
Bei der Entwicklung von EDV-Systemen soll darauf geachtet werden, daß
Handlungsfreiheit auf allen Anspruchsebenen bestehen bleibt, insbesondere auf
den höheren Ebenen. Um dies zu erreichen wird geraten, zuerst die
Arbeitsverteilung von Personen festzulegen, dann zu bestimmen, welche Anteile
durch Computer unterstützt werden und dann die konkrete Gestaltung des
Systems vorzunehmen.

3. Das Dilemma der Software-Ergonomie
Trotz intensiver Forschung auf dem Gebiet der Software-Ergonomie entstanden
aus ihr selten konkrete Lösungen für praxisorientierte Informatiker. Das liegt
daran, daß viele der Fragestellungen zu ungenau sind und sich nicht auf den
Kontext beziehen, in dem sie auftreten. Maaß verdeutlicht diese Problematik
anhand von Beispielen:
Beispiel 1: Kommando-Abkürzungen
Prinzipiell sollten Kommandos abgekürzt werden, um Eingabefehler zu
vermeiden und die Arbeit mit Computersystemen zu beschleunigen.
Für Abkürzungen gibt es verschiedene Methoden. Welche von ihnen für
welches System am besten sind, hängt ab von der Anzahl der Kommandos und
von der technischen Versiertheit der Benutzer. Dabei sollte darauf geachtet
werden, daß die Abkürzungen eindeutig sind, nicht zu Verwechslungen führen
und sich leicht einprägen lassen, z.B. indem sich die Bezeichnungen an die
Fachterminologie der Anwender anlehnen.
Eine andere Möglichkeit sind Menüs, die die möglichen Kommandos
übersichtlich darstellen und alternativ kürzere Wege über eine Tastatureingabe
vorsehen.
Beispiel 2: Einfachheit
Die Einfachheit eines Computersystems kann sich auf verschiedene
Komponenten beziehen. Ein System kann einfach sein, wenn es wenige
Funktionen beinhaltet oder dem Benutzer in jedem Zustand wenige Alternativen
zur Verfügung stellt und auf diese Weise übersichtlich ist. Es kann auch einfach
sein, wenn es eine hohe Anzahl von Funktionen durchschaubar darstellt oder
leicht verständlich bezeichnet ist (siehe Bsp. 1).
Im Gegensatz dazu stehen Kompliziertheit und Komplexität. Die drei Begriffe
verhalten sich im software-ergonomischen Kontext folgendermaßen zueinander:
Komplexe Systeme können auf relativ einfache Art zugänglich sein, wenn sie
verständlich strukturiert und präsentiert sind. Maaß definiert Kompliziertheit als
"unnötige Komplexität" (S. 197).
Bei diesem Beispiel stellt sich wieder die Frage nach einer menschengerechten
Arbeitsgestaltung. Computeranwendungen sollten nicht in einer Weise einfach
sein, in der sie qualifizierte Benutzer unterfordern, indem sie den
Handlungsspielraum des betreffenden einengen (Nicht-Komplexität). Durch
eine Ausrichtung des Systems an das Fachwissen des Benutzers kann es
gleichzeitig einfach zu bedienen und trotzdem hochkomplex sein und dem
Benutzer die Entscheidungsmöglichkeiten lassen, die er ohne
Computerunterstützung hätte.
Beispiel 3: Systemkonsistenz
Systemkonsistenz bedeutet einheitliches, erwartbares Verhalten und äußere
Darstellung eines Systems. Ein System ist intern konsistent, wenn z.B. das
Layout von verschiedenen Fenstern, die Tastenbelegung oder die Struktur von
Menüs innerhalb des Systems übereinstimmen. Die externe Konsistenz ist
gegeben, wenn verschiedene Systeme sich strukturell entsprechen, so der
Anwender leicht zwischen ihnen wechseln kann.
Einige Hersteller haben Richtlinien für die interne und externe
Systemkonsistenz aufgestellt, die allerdings nicht allgemeingültig für jede
einzelne Anwendung angewendet werden können. Konsistenz kann im
Widerspruch zu einer aufgabenspezifischen Systemgestaltung und der
Individualisierbarkeit von äußerer Darstellung und innerer Struktur von
Programmen stehen.
Es muß also abgewogen werden, inwiefern im Einzelfall eine Förderung der
Systemkonsistenz dem Benutzer hilft oder ihn einschränkt.

4. Stand der Diskussion
Bei der Systemgestaltung unterscheidet man zwischen Gestaltungsgegenstand
und -prozeß.

4.1. Der Gestaltungsgegenstand
Es wurden verschiedene Modelle entwickelt, um Benutzerschnittstellen zu
beschreiben. Für die Praxis sind Schichtenmodelle, wie das IFIP-Modell (siehe
2.1) relevant. Durch die Formalisierung der Benutzungsschnittstelle kann
zwischen den einzelnen Aspekten der Gestaltung genau unterschieden und das
Gesamtsystem gezielt entwickelt, verbessert oder analysiert werden.
Große Softwarefirmen gestalten ihre Produkte nach Regelwerken, die
allgemeine Gestaltungsgrundsätze und detaillierte Beschreibungen der
Bedienungselemente (z.B. Fensterrahmen, Aussehen von Knöpfen, Schriftarten)
beinhalten. In den in 2.1 erwähnten Softwarewerkzeugen werden genau diese
Vorgaben für die äußere Gestaltung in die Praxis umgesetzt. Bei der
Verwendung solcher technischer Vorgaben sollte nicht vergessen werden daß
die Software-Ergonomie im Rahmen von menschengerechter Arbeitsgestaltung
steht und Oberflächenbaukästen allein eine Anwendung noch nicht
benutzerfreundlich machen.
Entscheidend für die Benutzbarkeit von Systemen ist auch ihr
Dokumentationsmaterial. Bei vielen Handbüchern ist es gerade für unerfahrene
Benutzer schwierig, die Antwort auf eine Frage nach einem bestimmten Element
des Systems zu finden. Hier ist eine eher aufgabenorientierte Struktur von
Dokumentationen nötig, die eine für Anfänger leichtverständliche Übersicht
bieten und detaillierte Informationen für Fortgeschrittene bietet, nötig.

4.2 Der Gestaltungsprozess
Bei der Systemgestaltung sollten relevante Faktoren wie die späteren Anwender,
ihre Aufgabe, die Organisation ihrer Arbeit und die technischen
Voraussetzungen einbezogen werden. Als besonders effizient erweisen sich
Rücksprachen mit den zukünftigen Benutzern des Systems. Dabei sollten diese
nicht nur einmalig befragt werden sondern durch ein "rückgekoppeltes und
iteratives Vorgehen" (S. 200) Einfluß auf den Gestaltungsprozess nehmen. Die
Anwender testen Prototypen der Software um Verbesserungsvorschläge zu
äußern. Die neuen Anregungen können bei der weiteren Gestaltung verwendet
und die daraus entstandene Programmversion erneut getestet werden, um
herauszufinden, ob die Ideen der Benutzer zweckmäßig umgesetzt wurden.
Die Einbeziehung des Benutzers hat verschiedene Effekte. Die Qualität und
Benutzerfreundlichkeit des Softwareproduktes steigt, die Entwickler bekommen
eine realitätsnahe Vorstellung der Beziehung zwischen System und Benutzern
und für die Anwender wirkt sich die Beteiligung an der Gestaltung ihres
Arbeitswerkzeuges motivationsfördernd aus.
Für den Gestaltungsprozess gibt es einen quantitativen und einen qualitativen
Ansatz.
Beim quantitativen Ansatz wird versucht, verschiedene Aspekte der
Benutzerfreundlichkeit von Systemen in Zahlen auszudrücken. Es wird z.B. in
Experimenten gemessen, wie lange man mit einer bestimmten Anwendung
braucht um eine konkrete Aufgabe zu erledigen oder wie oft die Hilfefunktion
innerhalb einer bestimmten Zeitspanne aufgerufen wird.
Durch diese Methode ist es möglich, Systeme durch konkrete Parameter nach
Benutzbarkeit zu bewerten und zu vergleichen. Aber eine ausschließlich
quantitative Betrachtung kann keine ganzheitliche Gestaltung ermöglichen, denn
ein System mit anwenderfreundlichen "Maßen" erfüllt nicht unbedingt alle
Voraussetzungen für ein software-ergonomisch gutes System.
Ein qualitativer Ansatz stammt von Gould. Er schlägt eine iterative
Verfahrensweise bei der Gestaltung vor, wobei die Anwender einbezogen
werden. Die Informationen über Schwierigkeiten mit dem System, die die
Softwareentwickler von den Testanwendern erhalten werden nicht nach vorher
festgelegten Kategorien eingeordnet, sondern sollen werden unabhängig davon
analysiert und eingeschätzt.
Unter den qualitativen Ansatz fällt die "Methode des lauten Denkens" (S. 201).
Dabei sollen die Testpersonen während der Arbeit an dem neuen System ihren
Gedankengang artikulieren, wobei der Vorgang mit Videokamera festgehalten
wird. Danach wird der Film von allen Beteiligten diskutiert. Dieses effiziente
Vorgehen deckt vor allem Bedienungsschwierigkeiten von Anfängern auf.
Das "Benutzer-Interview" (S. 201) ist eine Methode die sich gut als
anschließende Ergänzung zum lauten Denken eignet.
Es ist außerdem oft sinnvoll, ein System während der Entwicklung nicht nur von
"Laien" sondern auch von EDV- Erfahrenen zu testen, wenn die zukünftigen
Benutzer mit unterschiedlichem Grad an Routine mit Computersystemen
umgehen.
Im EVADIS-Projekt entstand ein umfangreicher Leitfaden für die Bewertung
von Systemen nach software-ergonomischen Kriterien. Hier werden die
Aussagen der Benutzer sowohl nach den Bestandteilen der
Benutzungsschnittstelle, als auch nach Prinzipien der Systemgestaltung
methodisch ausgewertet.
Ein Nachteil des qualitativen Ansatzes liegt darin, daß die Tests nicht in einer
realen Arbeitsumgebung stattfinden. Die Testaufgaben und die -umgebung sind
in sich abgeschlossen, d.h. es gibt keine Unterbrechungen durch Kollegen oder
gleichzeitige andersartige Aufgaben wie im normalen Arbeitsleben.

4.3 Trends
Zwar kommen neue Technologien der graphischen Benutzeroberfläche an
Arbeitsplatzrechnern in Wirtschaft und Verwaltung noch kaum zum Einsatz,
doch sind diese ein aktuelles Thema bei Softwareforschern und Anwendern. Die
Entwicklung geht weiter in Richtung multimediale Oberflächen, bei denen außer
Texten auch statische und bewegte Graphiken, Video und Ton eingebunden
werden können. Neben der Eingabe über Tastatur werden Anwender auch über
Handschrift und akustische Sprache mit Computern interagieren. Ebenso von
den Möglichkeiten der "Virtual Reality" verspricht man sich neue Ansätze für
einen einfacheren Umgang mit Systemen.
Bisher bemühte sich die Software-Ergonomie vor allem, den Ansprüchen des
individuellen Anwenders gerecht zu werden. Durch die Umgestaltung der
Arbeitsorganisation in vielen Bereichen hin zur Gruppenarbeit, die man bei
vorhandener Computerunterstützung "Computer-Supported-Cooperative-Work"
nennt, ist es wichtig geworden, daß die Systeme für die neuen Anforderungen
ausgerichtet sind. Durch "Groupware" soll es für die Anwender in der Gruppe
möglich sein, Informationen auszutauschen und auf gemeinsame Daten ggf.
gleichzeitig zuzugreifen.
Auf dem Gebiet der "iterativen und partizipativen Systemgestaltung wird
weitergeforscht. Hier wird herausgefunden, wie man die Gruppen von
verschiedenen Beteiligten am zukünftigen Computersystem effizienter in den
Software-Entwicklungsprozeß einbeziehen kann und wie man die Anwender
besser auf den Umgang mit dem System vorbereitet.
Aktuell sind auch die Fragen, ob durch geeignete Software-Entwicklungs-Tools
mit weniger Aufwand ergonomische Programme entstehen können und wie man
Software nach Ergonomiekriterien bewerten und vergleichen kann.

5. Eigene Stellungnahme zum Thema
Hier entferne ich mich von Maaß' Text und nenne eigene Gedanken.
Erst als man anfing, Software mit Rücksicht auf ihre Benutzbarkeit zu
entwickeln, verbreitete sich die Anwendung von Computern in die Arbeitswelt
und in die Haushalte. Nun konnten nicht nur Computerexperten Rechner mit
ihren Programmen bedienen; mit der Weiterentwicklung von Mensch-Rechner-
Schnittstellen wurde es immer einfacher, die Bedienung von Systemen zu
erlernen. Software-Ergonomie spielt also eine große Rolle für die Akzeptanz
von Computersystemen.
Die Veränderung der Ziele der Software-Ergonomie von dem Leitbild des
"narrensicheren Systems" hin zu flexiblen Systemen, die die unterschiedlichen
Qualifikationen der Anwender und verschieden komplexen Ansprüche an die
Software berücksichtigen, war ein wichtiger Schritt. So wurde ein größerer Teil
des Potential des Computers ausgenutzt und universellere Werkzeuge für Arbeit
und Freizeit geschaffen.
Nach meinen Erfahrungen mit Anwendungsprogrammen ist oft der beste Weg,
den Umgang mit solchen Systemen zu erlernen, der des spielerischen
Erkundens. Auf diese Weise wird man schnell mit neuen Programmumgebungen
vertraut ohne ständig seine Aufmerksamkeit zwischen der Dokumentation auf
Papier und der Software auf dem Bildschirm hin und her zu bewegen (bzw.
zwischen Online-Hilfe und auf andere Ebene liegender Anwendung). Die
Dokumentation sollte mehr die Funktion des Nachschlagewerks haben, als die
eines Lehrbuches bzw. eines Tutorials.
Eine Vorraussetzung für das spielerische Erkunden ist, daß Sicherungen in der
Anwendung eingebaut sind, die vor Schaden wie z.B. unbeabsichtigtem Löschen
von Daten schützen. Ist die Komplexität der betreffenden Software zu hoch, ist
es allerdings nicht unbedingt sinnvoll, das System ausschließlich auf diese Art
kennenzulernen.
Zum Beispiel 3 in Abschnitt 3 merke ich an, das die Systemkonsistenz auch für
das Marketing von Softwareprodukten eine wichtige Rolle spielt. Ähnlich
gestaltete Programmoberflächen beim Software vom selben Hersteller erzeugen
bei Anwendern einen Wiedererkennungseffekt. In diesem Fall kann die
Erwartung und das Vertrauen in bezug auf eine neue Software mit den positiven
oder negativen Erfahrungen abhängen, die der Anwender mit früheren
Programmen des selben Herstellers hatte. Das Gefühl, sich in gewohnter
Programmumgebung zu bewegen kann die Bedienung des Systems erleichtern.
Das Zusammenspiel von Systementwicklern und den Personen, die sich mit dem
Sachverhalt auskennen, auf den die geplante Software abgestimmt wird, kann in
der Realität wohl nur bei großen Projekten in dem Umfang geschehen, wie er in
4.2 propagiert wird. In anderen Fällen ist auch eine intensive Mitbeteiligung von
werdenden Anwendern des fertigen Systems selten möglich.
Noch sind Computer relativ unzuverlässige Werkzeuge. Da sie in immer mehr
Bereichen eingesetzt werden, muß besonders durch die Softwaregestaltung ein
reibungsloses Arbeiten mit Computersystemen möglich gemacht werden. Ein
Ziel dieser Bestrebungen sollte sein, daß ein Mensch, um ein Computersystem
zu benutzen möglichst keine Schulung in Datenverarbeitung braucht und noch
weniger den hardware- oder software-technischen Hintergrund kennen muß.
Die Zukunft der Software-Ergonomie wird wie bisher entscheidend von neuen
Technologien für Benutzerschnittstellen abhängen. Erst wenn klar ist, welche
Möglichkeiten von hypermedialen Darstellungen und neuen Interaktionsformen
technisch realisierbar sind, kann man diese mit kognitiv-psychologischen und
arbeitspsychologischen Methoden nach Ergonomiekriterien analysieren und
ausgestalten.