Informatik - eine allgemeinbildende Wissenschaft?

 

Das Wort "Informatik" ist heutzutage in aller Munde, Informatik wird generell als zukunftsweisend, zukunftsträchtig, zukunftsnotwendig, usw. eingestuft. Fragt man aber nach, was Informatik beinhaltet, so erhält man in der Regel sehr vage Antworten, etwa in der Art: "halt mit dem Computer". Natürlich, ein Fach "Informatik" hat - in Bayern - bisher kaum jemand in der Schule selbst gehabt. Und das, was unter dem Titel "Informatik" angeboten wird, sind fast ausschließlich Programmierkurse, Einführungen in Anwenderprogramme, "Multimdedia" (was auch immer das sein mag) oder ähnliches. Auch die Erfahrbarkeit von Informatik im Alltag ist gleichzusetzen mit dem Umgang mit Computern.

Also gilt die Formel: "Informatik = Computer"? Der englische Begriff für Informatik, "computer science (Computerwissenschaft)" deutet auf den ersten Blick genau in diese Richtung. Allerdings lässt man bei dieser vereinfachenden Sichtweise außer acht, dass das Wort "science" deutlich mehr bedeutet als technisches Know-how oder die Kenntnis der Bedienmöglichkeiten von Betriebssystem und Programmen. Weiter kommt man, wenn man das deutsche Kunstwort "Informatik", zusammengesetzt aus "Information" und "Automatik", genauer analysiert. Informatik ist also die Wissenschaft von der Information und ihrer automatischen Verarbeitung. Was bedeutet aber wissenschaftliche Betrachtung von Information und deren Verarbeitung? Wo bleibt der Computer? Braucht man für Informatik am Ende gar keine Computer? Und was bringt die Beschäftigung mit Informatik für die heutige Gesellschaft?

Drehen wir das Rad der Geschichte kurz zurück. Wie weit? Bis zu Schickard mit seiner ersten automatischen Rechenmaschine (1623)? Hier könnte man vielleicht den Beginn des Computerbaus definieren. Aber mit Informationsverarbeitung hat eine Rechenmaschine zuerst einmal nichts zu tun, denn Zahlen für sich genommen tragen keine Information. Man kann den Wert der Summe "3000 + 2000" berechnen, aber erst, wenn man der Zahl 3000 die Bedeutung "3000 € auf dem Konto" und der Zahl 2000 die Bedeutung "4000 € Gehalt" gibt, könnte der Wert der Summe bedeuten, dass man jetzt 5000 € zur Verfügung hat. Wie aktuell diese primitiv erscheinende Tatsache sein kann, zeigt der Absturz der letzten amerikanischen Marssonde. Die berechneten Daten allein nützen wenig, wenn Massen bzw. Längen von einer Stelle in Kilogramm und Metern, von der anderen in englischen Pfund und Meilen interpretiert werden.

Soll man noch weiter zurückgehen, etwa zu Al Charizmi (um 800), von dessen Name sich das Wort Algorithmus ableitet? Er hat beschrieben, wie bestimmte Rechenvorgänge durchzuführen sind, aber über Informationsverarbeitung hat er keine Aussagen gemacht.

Eher könnte man bei Raymundus Lullus (Ramón LLull, um 1300) anhalten, der als erster das Ziel der Logik konzipierte: Die Entwicklung universeller Kalküle zur Entscheidung der Wahrheit beliebiger Aussagen.

Am besten aber hält man bei dem deutschstämmigen, amerikanischen Berkwerksingenieur Hermann Hollerith an, der ab 1884 (für die 1890 stattfindende amerikanische Volkszählung) mehrere Patente einreichte, in denen er die Lochkarte als Träger schematisierter Information einführte und Maschinen zur automatischen Auswertung dieser Information konstruierte. Hiermit wurde das enorme Potential automatischer Informationsverarbeitung zum ersten Mal deutlich aufgezeigt (die damalige Firma von Herrmann Hollerith ist heute die Firma IBM, in Deutschland hieß sie bis nach dem 2. Weltkrieg "Hermann Hollerith GmbH").

Ähnlich wie sich mit dem Beginn der modernen Naturwissenschaften und deren Weiterentwicklung die Menschheit vor allem in den letzen zweihundert Jahren die "greifbare" Natur dienstbar gemacht hat, ist es in den auf diesen Anstoß folgenden 50 Jahren gelungen, durch die mathematische Analyse und eine entsprechende Modellbildung (etwa vergleichbar mit der Analyse und Modellbildung der "materiellen" Natur in der Physik) auch "Information" mit formalen Theorien zu beschreiben und schematisch darzustellen, also wissenschaftlich zu behandlen und in der Folge maschinell bearbeitbar zu machen.

Damit beginnt die Informatik (wenn auch noch nicht als eigenständige Disziplin unter einem eigenen Namen) als Wissenschaft. Wesentliche Fragestellungen sind: Was ist "Information"? Wie läßt sich Information darstellen und schematisieren? Welche Information läßt sich schematisieren? Bleibt der Informationsgehalt beim Schematisieren erhalten? Welche Operationen lassen sich auf der schematisierten Information durchführen? Wie können diese Operationen exakt, eindeutig und für eine Maschine ausführbar beschrieben werden? Welchen Informationsgehalt hat das Ergebnis solcher Operationen, wie muss man es also interpretieren?

Die Frage nach den möglichen Operationen, heute formuliert als "Berechenbarkeit" wurde bereits in den Jahren 1936/37 von Alan Turing sehr fundamental beantwortet. Die von ihm definierte Turing-Maschine kann alles berechnen, was prinzipiell berechenbar ist. Von dieser Maschine konnte er aber auch zeigen, dass sie nicht überprüfen kann, ob ein Algorithmus auf einer zweiten solchen Maschine je zu einem Ende kommt (Halte-Problem). Damit ist, übertragen auf den jetzigen Sprachgebrauch, aber auch gezeigt, dass es kein Computerprogramm geben kann, das ohne Zusatzinformation andere Computerprogramme auf Korrektheit prüfen oder sie gar reparieren kann. Trotzdem wird, aus Unkenntnis der wissenschaftlichen Grundlagen, heute immer noch viel auf das Entstehen ähnlicher Programme gehofft, genau so wie früher auf das Perpetuum mobile gehofft wurde.

Mit der Konstruktion elektronischer Rechenanlagen nach dem zweiten Weltkrieg wurden die bis dahin gefundenen Ergebnisse der Informatik universell einsetzbar. Durch die immens wachsende Geschwindigkeit und Speicherkapazität der Computer wurden immer komplexere Aufgaben in vertretbarer Zeit lösbar. Durch den Preisverfall der Computer verbreiteten sich diese ins Alltagsleben, was insbesondere im Bereich "Darstellung der Information" zu neuen Aufgaben führte.

Für diese erweiterten Aufgabenbereiche reichten aber die bis dahin bekannten Schematisierungsverfahren (Modellierungstechniken) nicht mehr aus, da sie nur für statische Datenzusammenhänge mit einfachen mathematischen Operationen (z. B Buchhaltung) entworfen wurden. Um komplexere Informationsstrukturen mit ihren entsprechend komplexeren Operationen klar und übersichtlich beschreiben zu können, wurden neue Modellierungsarten entwickelt (z. B. objektorientierte Modellierung). Gleichzeitig wurden durch die höheren Rechnerleistungen neben einfachen textuellen Darstellungen der Information auch aufwendigere Darstellungen wie Graphiken (inklusive graphischer Bedienoberflächen), Töne und bewegte Bilder bis hin zu Videos möglich, für deren formalisierte, auf diskrete Werte reduzierte Repräsentation ebenfalls geeignete Darstellungen gefunden werden mussten. Die parallel aufkommende Vernetzung der einzelnen Rechner stellte weitere neue Fragen nach geeigneten Modellierungen. Es müssen nicht nur die Grundfragen nach den Kommunikationsstrukturen beantwortet werden. Datenstrukturen und ihre Operationen müssen nun nicht mehr nur auf einem Rechner bzw. lokalen (Firmen-)Netz gleich modelliert werden, es werden weltweit einheitliche Darstellungen benötigt, die sowohl wohldefiniert sein müssen aber auch soviel Information wie möglich repräsentieren sollen.

Weiter stellte sich heraus, dass viele Informationen von verschiedenen Benutzergruppen mit verschiedenen Schwerpunkten gesehen werden. Diese unterschiedlichen Sichtweisen beziegen sich weniger auf verschieden umfangreiche Zugangsrechte, sondern auf die mit der jeweiligen Aufgabenstellung verbundenen wichtigen Teilinformationen. So wird der Datenbankadministrator einer relationalen Datenbank eine Strukturierung der Relationen nach indizierten bzw. nichtindizierten Schlüsseln, Anzahl der Schlüsselattribute, Anzahl der Fremdschlüssel und anderen Implementierungsaspekten vornehmen. Für den Buchhalter oder den für Einkäufe zuständigen Mitarbeiter sind diese Informationen völlig nebensächlich. Sie benötigen eine Projektion (d. h. Reduktion auf die benötigte Teilinformation) der Datenbankinhalte mit den für sie wichtigen Zusammenhängen.

Heute stellt die Informatik eine ganze Reihe von Modellierungstechniken für die verschiedenen Aufgabenbereiche und Sichtweisen zur Verfügung.

Um auch dem Nichtfachmann die Möglichkeiten und Errungenschaften der Informatik nutzbar zu machen, wird versucht, den Informationsaustausch zwischen Mensch und Maschine immer intuitiver ("menschlicher") zu gestalten. Dabei wird aber immer mehr verdeckt, dass sich die maschinelle Informationsverarbeitung vom menschlichen Denken grundlegend unterscheidet. Gerade bei komplexeren Informationen gerät dadurch sehr schnell in Vergessenheit, dass man den "Wert", d. h. den tatsächlichen Informationsgehalt eines maschinellen Ergebnisses, grundsätzlich hinterfragen muss.

Ein Beispiel: Ein Arzt verwendet ein Expertensystem zur Krankeitsdiagnose. Er gibt die beobachteten Symptome ein und erhält vom Computer eine andere Diagnose als er selbst gestellt hat. Zwischen zwei Ärzten wäre jetzt eine Fachdiskussion möglich. Hier kann der Arzt sagen: "Ich bin auf jeden Fall flexibler als eine Maschine, meine Diagnose stimmt". Er kann auch sagen: "Der Computer macht keinen Fehler, also ist seine Diagnose richtig." Wenn er aber mit informatorischen Arbeitsweisen vertraut ist, so kann er seine eigene Entscheidungsfindung aus der Sicht maschineller Informationsverarbeitung nachvollziehen und Überlegungen anstellen wie: "Habe ich Zusatzinformation ausgewertet, die das Expertensystem nicht hatte?" oder "Habe ich mehrere Aussagen assoziativ zusammengefasst, die die Maschine nur über vorgegebene, feste Gewichtungen verknüpfen kann?" Mit solchen Überlegungen kann er sowohl den Wert seiner wie auch den Wert der Maschinendiagnose abschätzen und somit ein wesentlich fundierteres Gesamturteil bilden. Aber nicht nur für den Arzt stellt sich diese Problematik. Jeder Mensch, der (z. B. Selbstdiagnose über das Internet) auf Expertensysteme aller möglichen Anwendungsbereiche zugreift, muss in der Lage sein, den Wert der erhaltenen Information einzuschätzen.

Aber auch in wesentlich allgemeineren Situationen ist die Kenntnis informatorischer Arbeitstechniken vorteilhaft. Schon z. B. eine Suchanfrage im Internet setzt voraus, dass man sich bewusst macht, was gesucht (und damit gefunden) werden kann. Sucht man mittels Stichwortlisten, so findet man nur Dokumente, bei denen der Ersteller das Stichwort als für seine Arbeit relevant angesehen hat. Verwendet man Volltextsuche, erhält man alle Dokumente, die das Stichwort irgendwie verwenden. Hoffentlich gibt die verwendete Suchmaschine an, welche Methode sie verwendet; diese beiden Methoden sind nicht die einzigen. Es ist also eigentlich kein Wunder, dass man bei ersten Recherchen meistens kaum Treffer oder viel zu viele Treffer hat. Auch muss man sich im Klaren sein, dass eine logische Verknüpfung von Suchbegriffen ("alle müssen vorhanden sein", "mindestens einer muss vorhanden sein" usw.) noch keine Aussage über ihre semantische Verknüpfung in den untersuchten Dokumenten macht.

Eine in der Arbeitswelt sehr typische Situation ist die Verlagerung von Betriebsabläufen auf den Computer (Verwaltung, Steuerung, Informationsaustausch). Um über die Vor- / Nachteile des Computereinsatzes entscheiden zu können, ist es notwendig zu wissen, welche Aufgaben der Computer übernehmen kann. Gerade hier zeigt sich immer wieder, dass die Anwender in den wenigsten Fällen abschätzen können, welche Schematisierungsverluste sie erleiden, aber auch nicht, welche Gewinne sie aus dem Computereinsatz ziehen könnten, wenn ihre Arbeitsabläufe dem Computer angepasst werden. Hier ist eine Kenntniss der Modellierungstechniken zwingende Voraussetzung für eine fundierte Entscheidung. Der ausführende Informatiker kann kaum Hilfestellungen geben, weil er seinerseits die Anwendersituation nicht kennt.

Zentrale Fragen in all diesen Beispielen sind die schon zu Beginn gestellten: Welcher Ausschnitt der Wirklichkeit soll abgebildet werden? Welche Modelle sind dafür geeignet? Was bleibt bei dieser Abbildung erhalten, was geht verloren? Welcher Teil der realen Welt kann überhaupt abgebildet werdne, wofür müssen bei Bedarf neue Strukturen geschaffen werden (z. B. für alle Arten informellen Austauschs, da dieser prinzipiell von Nicht-Schematisiertheit lebt).

Wo aber bleibt der Computer in diesem Aufgabenbereich? Für den Informatiker ist mit dem Finden der geeigneten Modellierung der interessante Teil seiner Arbeit gelöst. Die Realisierung auf dem Computer ist dann nur noch lästige Sklavenarbeit. In der Schule muss diese Frage etwas anders beantwortet werden. Der Schüler will seine Überlegungen überprüfen, will das Resultat seiner Arbeit haben, will sehen "ob das Programm läuft". Eine Realisierung auf dem Computer zeigt außerdem, ob die Modellierung vollständig war, d. h. keine umgangssprachlichen Elemente mehr enthält. Ein dritter, nur auf den ersten Blick untergeordneter, Aspekt des Computereinsatzes ist, dass der Schüler Erfahrung über die Laufzeit von Algorithmen sammelt. Zusammen mit der theoretischen Laufzeitanalyse lernt er so abzuschätzen, ob bestimmte Aufgaben nicht nur prinzipiell sondern auch in realistischer Rechenzeit gelöst werden können. Weiter lernt er, ob eine Lösung, die heute noch zu lange Rechentzeit benötigt, mit schnelleren Rechnern bzw. durch Parallelisierung brauchbar wird oder, z. B: bei exponentieller Laufzeitordnung, grundsätzlich nur für umfangsmäßig begrenzte Aufgaben einsetzbar ist. Ein aktuelles Beipiel für diese Fragestellung ist die Sicherheit von Verschlüsselungen.

Auch wenn ein Fachgebiet nicht durch Ausschlüsse definiert werden kann, ist hier eine Negativanmerkung zu einigen dem Informatikunterrichts zugeordneten Inhalten nötig. Verstehen informatorischer Zusammenhänge heißt sicher nicht, einen Computer einschalten oder ein bestimmtes Programm im Schlaf bedienen zu können. Verstehen heißt genau so wenig, die Syntax und die Möglichkeiten einer Programmiersprache "aus dem ff" zu beherrschen, alle Schnittstellen eines Betriebssystems auswendig zu wissen oder einen Computer zusammenbauen bzw. erweitern zu können. All das sind schöne und je nach persönlicher Situation auch mehr oder weniger nützliche Rezepte bzw. Kenntnisse - aber eben nur gespeicherte (Detail)information, die angewandt wird. Genau so wenig, wie man Physiker ist, wenn man Messgeräte verwenden kann, ist man Informatiker, wenn man einen Computer mit seinen Programmen bedienen kann.

Verstehen heißt, einen Überblick über die Grundkonzepte und deren Zusammenhänge zu haben, das Prinzip zu kennen, nach dem Dinge ablaufen und Konsequenzen aus diesem Prinzip einschätzen zu können. Genau dieses Verstehen ist aber im Bereich der Informatik notwendig, um Gestaltender in unserer Gesellschaft bleiben zu können und nicht zum Abhängigen der Computerisierung zu werden. Das für das Verstehen unserer Gesellschaft und ihrer Zusammenhänge notwendige Grundwissen ist aber genau das, was Allgemeinbildung ausmacht. Und dazu gehört, wie oben aufgezeigt, heute die Informatik und damit der richtig verstandene Informatikunterricht.

Gerade die mittlerweile massive Diskussion um Themen wie Cloud Computing oder Street View von Google zeigt überdeutlich, dass auch der einzelne Bürger für den privaten Bereich nicht mehr nur in der Lage sein muss, den Computer effizient zu nutzen. Er muss auch die Funktionsweise automatischer Informationsverarbeitung kennen, um bei den hier aufgeworfenen Fragen als mündiges Mitglied der Informationsgesellschaft mitwirken zu können.