Der Autor dieses Artikels, Dr. Thomas von Randow, beschreibt bereits 1982 die Problematik, verlässlich Innovationsentwicklungen vorherzusagen. Er nennt eine Fülle von Fehlprognosen und ebensolcher Methoden, wie beispielsweise die sogenannte „Delphi-Methode“, und ihre Erfinder. Trotz einer hohen Kenntnisdichte zeichnet den Artikel ein verständlich Sprache aus. Der Text und die Zeichnungen sind ein Lesegenuss. Der Artikel ist im dialog-Magazin der ehemaligen Nixdorf Computer AG, Paderborn, 1982 erschienen. (Eduard Heilmayr)
Debakel mit dem Orakel
Paderborn, 1982 (Dr. Thomas von Randow, dialog-Magazin) – „Der Kluge horcht nach der Vergangenheit, wandelt in der Gegenwart, denkt aber an die Zukunft“, sagt ein italienisches Sprichwort. Menschen, die zu ergründen versuchen – oder zu wissen vorgeben -, was die Zukunft bringt, sind denn auch in allen Kulturen als Weise oder gar Heilige verehrt worden. Der aufgeklärte Zeitgenosse amüsiert sich allenfalls über die kleingläubigen Herrscher der Antike und des Mittelalters, die vor ihren Entscheidungen bei Propheten und Sehern Rat holten. In Wahrheit aber verhält sich der moderne Entscheidungsträger nicht anders. Zwar nennt er seine Ratgeber heute nicht mehr Propheten, sondern „Planungsvorgaben“ oder „Trendanalysen“, aber er bedarf ihrer weitaus dringlicher als die alten Könige und Krieger, weil sich im vielfältig verzahnten Komplex der Industriegesellschaften die Folgen einer Fehlentscheidung wie eine fatale Seuche verbreiten können.
Diese Einsicht hatte in den
sechziger Jahren Wissenschaftler dazu
angeregt, die Möglichkeit einer systematischen
Vorhersage künftiger Ereignisse
zu erkunden. Bald machten „Zukunftsforscher“
von sich reden, und wie
stets, wenn ein neuer Titel erfunden
worden ist, legten sich diesen auch allerlei
Möchtegern-Gelehrte zu.
So manches Phantasieprodukt,
das bislang als Utopie oder Sciencefiction
eingeordnet worden war, gerierte
sich nunmehr als futurologisches Forschungsergebnis.
Sah der eine „Forscher“
die Menschen im Jahr 1980 in
riesigen Unterwasserstädten leben,
wähnte der andere uns Heutige als Bewohner
von Mond- und Marssiedlungen.
Das vollautomatische Dienstmädchen
gehörte zu den Lieblingsthemen
der modernen Seher; ein Roboter für
die Hausarbeit, der gesprochene Anweisungen
entgegennimmt und nicht
nur putzt, wäscht und kocht, sondern
auch den Hund Gassi führt.
Hunger dürfte es längst
nirgendwo mehr geben, weil
in vollautomatischen, transportablen
Nahrungsmittelreaktoren
Eiweißstoffe aus prak-
tisch jeder organischen Substanz synthetisiert
würden, aus Unkraut, Gras,
Altpapier oder Kohle. Zudem dürften
Bewohner entlegener Gebiete ohne Infrastruktur
keine Transportprobleme
mehr haben, weil die Güter mit „Laufzeugen“
dorthin gebracht würden, Maschinen,
die, übergrossen Insekten
gleich, mit langen Beinen über Stock
und Stein staksen — tatsächlich sind
solche Geräte versuchsweise für den
Apollo-Mondflug konstruiert worden,
aber sie erwiesen sich als zu wacklig.
Bis 1976, so sah es das führende
US-Wirtschaftsmagazin „Fortune“ vor
25 Jahren, sollte es Wissenschaftlern
gelungen sein, das Blattgrün Chlorophyll
künstlich herzustellen, das Sonnenkraftwerk
der Pflanzen. Und atomare
Sprengsätze würden „friedlich“ für Erdarbeiten
verwendet, etwa um Hafenbecken
auszuheben.
Nicht viel besser als den Phantasten
erging es denen, die mittels wissenschaftlicher
Erleuchtung die Zukunft
aufzuhellen versuchten. So hatte der
weltbekannte amerikanische Biologe
Paul Ehrlich zum Beispiel 1969 mit mathematischer
Akribie errechnet, daß im
Jahre 1980 der Fischbestand der Meere
ausgerottet sein würde. Der Verkehrsexperte
Gabriel Bouladon vom
zukunftsorientierten Battelle-Institut
prophezeite im Oktober 1967: „Die letzten
Omnibusse — elektrisch betriebene
natürlich, wie von den um 1980 erlassenen
Umweltgesetzen vorgeschrieben
— werden bis 1990 verschwunden
sein.“ Statt dessen würden überall an
den Straßenrändern Selbstbedienungstaxis
stehen, die jeder mittels Kreditkarte
als Zündschlüsse! fahren und am
Ziel einfach stehen lassen kann. Aussehen
würden sie wie alle Autos um 1985:
durchsichtige Plastikwürfel einheitlicher
Größe auf winzigen Rädern; eine Super-
Computerzentrale fädelt sie in den
wie von Geisterhand gelenkten Verkehr
ein. „Keine Ampeln wird es mehr geben
und keinen Stau“, lautete die frohe Botschaft
des Schweizer Verkehrsexperten.
Für die rasch aufladbaren Wasserstoff-
Batterien dieser elektrisch angetriebenen
Fahrzeuge hatte Batteile
schon ein Patent angemeldet. Ebenso
für den Pneumatic Logic Tube Train, mit
dem Güter und Passagiere wie in Rohrpost-
Bomben durch ein gewaltiges
Röhrensystem gepustet werden – mit
Tempo 800.
Für die Luftfahrt hatte die Studie
besonders starke Leistungssteigerungen
ausgemacht. Danach müssten Linienflugzeuge
heute schon 16 000 Kilometer
in der Stunde zurücklegen.
Frankfurt – New York: ein Katzensprung
von 25 Minuten Dauer.
Alle Zukunftsexperten, selbst die
vorsichtigsten, waren vor 25 Jahren in
drei Punkten einhelliger Meinung: 1985
würden Fusionsreaktor-Kraftwerke fast
die gesamte Energieversorgung der industrialisierten
Welt übernommen haben,
würde Krebs eine harmlose, weil
heilbare Krankheit sein, und es würden
korrekte Übersetzungen von Texten
aus einer Sprache in die andere von
Computern angefertigt.
Wir wissen heute, am Ende der
achtziger Jahre, daß keine dieser drei
fraglos wünschenswerten Innovationen
Wirklichkeit geworden ist. Warum war
man sich vor einem Vierteljahrhundert
über ihr Eintreffen so sicher?
Weil alles darauf hindeutete. Die
Kernspaltung war schon erfolgreich gezähmt
worden; warum sollte dies nicht
auch mit der Wasserstoffbombe möglich
sein? Physiker wußten sogar
schon, wie dies zu bewerkstelligen sei.
Das für die Kernverschmelzung notwendige
superheiße Plasma, das jeden
materiellen Behälter augenblicklich zum
Verdampfen bringen würde, sollte in
„Flaschen“ aus magnetischen Feldlinien
eingeschnürt werden. Die Verwirklichung
des Fusionsreaktors war „nur
noch ein technisches Problem“; vor 25
Jahren gleichbedeutend mit „ein in absehbarer
Zeit lösbares Problem (dem
Ingeniör ist nichts zu schwör)“. Inzwischen
haben wir gelernt, daß auch die
Technik zuweilen an Grenzen des
Machbaren stößt. Noch ist es nicht einmal
im Experiment gelungen, ein Plasma
der geforderten Art annähernd so
lange aufrechtzuerhalten, wie es für die
Kernfusion benötigt wird.
D ie Anfangserfolge der Chemotherapie
gegen den Krebs waren
überaus ermutigend. Einige Krebsformen
sind kurierbar geworden. Doch die
spezifisch auf Tumorzellen wirkende
Chemikalie, die 1960 zum Greifen nahe
schien, zumal sich einige Substanzen
in Zellkulturen schon so verhielten, ist
bis heute nicht entdeckt worden.
Die Sprachübersetzung mit Computern
hatte schon damals eine lange
Tradition. Diese Hoffnung reifte gleich
mit den ersten Elektronenrechnern. Die
ersten Versuche, sie zu verwirklichen,
waren überdies vielversprechend. Vor
allem am Massachusetts Institute of
Technology (MIT) an der US-Ostküste
und in den Forschungslabors der amerikanischen
Bell-Telefongesellschaft
waren schon 1956 verblüffende Übersetzungseriolge
gelungen. Sie mußten
nur noch auf komplizierte Texte ausgedehnt
werden. Das aber ist bis heute
nicht geglückt.
Freilich haben die Bemühungen
um die Maschinen-Übersetzung einen
durchbruchartigen Erkenntnisgewinn in
den Sprachwissenschaften und einen
gewaltigen Innovafionsschub für die Informatik
gebracht. Einer hatte exakt
dies vorhergesehen, der Mathematiker
und Erfinder der Kybernetik, Norbert
Wiener. Er erklärte 1956 in einem Symposium
am MIT: „Ich glaube inzwischen,
daß MT (machine translation) für
die Linguistik das sein wird, was das
Gold der Alchimisten für die Porzellanmanufaktur
gewesen ist, eine vergebliche
Suche, mit unerwartet wertvollen
Entdeckungen.“
Gemeinsam ist den drei bislang
vergeblich erwarteten Innovationen,
daß es ihnen am rettenden Einfall gebrach.
Im nachhinein kommt uns manche
Erfindung so vor, als habe sie „in
der Luft gelegen“. Doch vorausschauend,
so scheint es, ist in der Luft
so recht nichts zu erkennen.
Einer, der davor nicht kapitulieren
wollte, war der deutschamerikanische
Mathematiker bei der RAND Corporation
in Kalifornien, Olaf Helmer. Er
machte sich mit „Delphi“ einen Namen,
einer speziell für Innovationen erdachten,
prognostischen Methode, die auf
der merkwürdigen Annahme beruhte,
daß Experten ein Gespür für zukünftige
Entwicklungen hätten und sich diese
individuellen Intuitionen zu verläßlichen
Vorhersagen verdichten ließen.
Doktor Helmer verschickte Fragebogen
an 150 Persönlichkeiten — Wirtschaftler,
Ingenieure, Mathematiker, Offiziere,
Betriebsberater, Physiker, Sozio-
logen und (fünf) Schriftsteller. 81 der
Angeschriebenen entsprachen der Bitte
des Mathematikers, „größere wissenschaftliche
Umwälzungen und Erfindungen
zu nennen, die Ihnen in den Sie
besonders interessierenden Gebieten
sowohl dringend notwendig als auch
innerhalb der nächsten fünfzig Jahre
realisierbar erscheinen“. Diese Angaben
wurden für eine zweite Fragebogenaktion
aufgelistet. Diesmal sollte jeder
angeben, für wie wahrscheinlich er
in welchem künftigen Zeitraum die Verwirklichung
der einzelnen Erfindungen
oder Durchbrüche halte.
Nachdem dies geschehen
war, wurden den Experten die meisten
Ergebnisse der zweiten Befragung mitgeteilt.
Nun sollten sie sich noch einmal
zu denjenigen zukünftigen Ereignissen
äußern, über deren Eintrittswahrscheinlichkeit
keine rechte Einigung zustande
gekommen war. Auch dies geschah.
Und nach einer vierten, weiterhin auf Einigung
abzielenden Befragung stellte
Helmer über sechs verschiedene Gebiete
Tabellen zusammen, die jeweils
ein Zukunftsbild zeichneten.
Ob diese Delphi-Technik Licht in
das Dunkel der Zukunft bringen würde
— Helmer selbst äußerte sich hoffend,
jedoch nicht ohne Zweifel darüber. Inzwischen
sind zwanzig Jahre vergangen,
und so hat sich ein Teil jenes Dunkels
zur Gegenwart und Vergangenheit
aufgehellt. Manches traf ein, zum Beispiel
die für die Jahrzehntwende 1970
vorausgesagte Entwicklung der Antibabypille.
Zahlreich aber sind auch die
Nieten. Der schon erwähnte automatische
Dolmetscher sollte selbst nach
Meinung der vorsichtigsten unter den
Experten spätestens 1978 seine Arbeit
aufnehmen Wirtschaftlich tragbare
Meerwasserentsalzung müsste es seit
zehn Jahren geben, ebenso synthetische
Baustoffe für eine ultraleichte Bauweise.
„Zuverlässige Wettervorhersagen“
waren mit größter Wahrscheinlichkeit
für 1985 angesagt, auf dem Gebiet
der Wetter- oder gar Klimakontrolle
müsste sich inzwischen auch schon etwas
tun, eine „Revision der physikalischen
Theorien“ – ein neuer Einstein?
– war für 1980 erwartet, und eine „zentrale
Informationsbank“ wäre in drei
Jahren fällig.
Nein, dieses Delphi war kein gutes
Orakel. Nigel Calder, der etwas früher
als Helmers Aktion in der englischen
Wissenschaftszeitschrift „New Scientist“
Wissenschaftler über die Zukunft
spekulieren ließ, hatte zwar keine bessere,
aber auch keine schlechtere Trefferquote.
Statistisch gewertet, war sie in
beiden Fällen gleich Null.
Die Vorstellungskraft, auch die von
Experten, hilft offenbar wenig, wenn es
gilt, das Morgen zu ergründen, weil wir
Gefangene des Heute sind. Alle futurologische
Intelligenz in der Blütezeit der
Zukunftsforschung sah weder die damals
nahe bevorstehenden Energiekrisen,
noch die weltweite Arbeitslosigkeit
voraus. Selbst auf den Taschenrechner
war keiner gekommen. Hingegen errechnete
der prominenteste Futurologe,
Hermann Kahn, aus einer Fülle von Daten,
daß Frankreich in den achtziger
Jahren zur führenden Weltmacht würde,
daß sich ein nie zuvor gekannter Wohlstand
über den Erdball verbreite, in
dem nur noch wenige, denen es halt
Spaß mache, arbeiteten, während sich
die anderen dem Genuß eines permanenten
Studiums und anderen kulturellen
Freuden hingäben.
Die Analyse der damals prophezeiten
Innovationen zeigt, wie leicht
wir sich anbahnende Entwicklungen
überschätzen. Der Harvard-Psychologe
Skinner hatte mit einer Lernmaschine
experimentiert, einem Mechanismus,
der dem Schüler den Lehrstoff portionsweise
unter einem kleinen Fenster
zu lesen gab. Jeder dieser Lehreinheiten
folgten Fragen, die mit Knopfdruck
für „ja“ oder „nein“ zu beantworten waren.
Skinner schwebte vor, mit solchen
Apparaten jedem Lernenden die Möglichkeit
zu geben, sein Lerntempo
selbst zu bestimmen. Skinners Slogan:
Ein Privatlehrer für jedes Kind.
Geschäftstüchtige Leute griffen die
Idee rasch auf. Erziehungswissenschaftler
verfeinerten die Methode, bald
war die pädagogische Revolution geboren:
programmiertes Lernen. Für die
Zukunftsdeuter war damit die Richtung
klar. Nicht nur Kinder, sondern auch Erwachsene
würden in naher Zukunft an
Lernmaschinen geradezu spielend und
darum mit Wonne so viel lernen wie
keine Generation zuvor. Das englische
Schlagwort, weltweit im Munde geführt,
hieß permanent education.
Skinners Apparat klappert in keinem
Klassenzimmer mehr, der Traum
vom automatischen Privatlehrer ist verflogen;
geblieben ist der computergestützte
Unterricht, dessen Name freilich
weitaus mehr verspricht als die Realität
hält. Und die Mehrheit der Menschen
gibt sich in den achtziger Jahren der
Unterhaltung durch das Fernsehen hin
statt der Lust am lebenslangen Lernen.
Wer nicht wie einst Hitler an die
Vorsehung oder wie Wallenstein an ein
in den Sternen festgeschriebenes
Schicksal glaubt, weiß nur zu genau,
daß Zukunft prinzipiell unerfahrbar und
darum Künftiges nur in dem Maße vorhersehbar
ist, indem es durch wohlbestimmte
Kausalketten mit gegenwärtig
erkennbaren Prämissen verknüpft oder
von unverkennbaren Entwicklungslinien
gekennzeichnet ist. Dieses Maß freilich
ist in den allermeisten Fällen recht dürftig.
Selbst das Wetter, immerhin ein
physikalischer Vorgang, unbeeinflußt
vom kapriziösen Verhalten der Menschen,
läßt sich allenfalls für drei, vier
Tage schlecht und recht vorhersagen.
Ein bißchen zuverlässiger sind allerdings
die Meteorologen geworden,
seitdem ihre Arbeit von Satellitenbildern
unterstützt wird. Waren sie bis dato
weitgehend auf — viel zuwenig —
Meßdaten angewiesen, von denen Kausalitätsketten
abgeleitet werden mußten,
haben sie nunmehr Gelegenheit zu
Trendanalysen. Das Hoch, das sich —
auf dem Satellitenfilm deutlich sichtbar
– nach Südosten bewegt, wird nicht
abrupt seine Richtung ändern, sondern
seine Reise in den kommenden Stunden
fortsetzen. Für Unsicherheit aber
sorgen die heute noch nicht auszumachenden
Trends, die morgen schon
entscheidend für das Geschehen sein
können. Sie gleichen den innovativen
Entwicklungen im stillen Bastelbüdchen
oder hinter verschlossenen Labortüren
konkurrenzfürchtender Firmen.
Den Mikroprozessor hat niemand,
der nicht an seiner Entwicklung
beteiligt war, vorausgeahnt. Er kam, sah
und siegte auf der ganzen Linie. Eine
Weile war dann das Prognostizieren
einfach. Daß Computergenerationen in
kurzen Zeitspannen aufeinanderfolgen
würden, jede leistungsfähiger, bedienungsfreundlicher,
billiger, kleiner und
schneller als die vorige — jeder in der
Branche las dies an weit in die neunziger
Jahre projizierten Kurven in seiner
Fachzeitschrift ab. Beliebt wurden die
Graphiken, welche die Komplexität der
Bauelemente mit den Jahren ihrer
Markteinführung in Beziehung setzten.
Auf der Y-Achse die Speicherfähigkeit
von integrierten Schaltungen, logarithmisch
aufgetragen von null bis zehn
Millionen Bits; auf der X-Achse die Zeit
von 1960 bis zum Jahr 2000. Die Kurve:
eine Gerade, die im Winkel von 45 Grad
emporsteigt. Ihr unteres Ende: die
Realität. Doch ob sich die künftige Entwicklung
so linear weiterentwickeln
würde, ist die schlichte Frage, die Prognostiker
gerne ignorieren.
Der Schwung, den solche Schaubilder
noch vor acht Jahren suggerierten,
ist keineswegs verpufft. Nur sind
die Erwartungen konservativer geworden.
Neue, hyperkomplexe elektronische
Komponenten zu entwickeln kostet
viel Geld. Ein einziger Flop kann
eine Firma an den Rand des Ruins
bringen. Zu so einem fatalen Versager
mag es aus dem banalen Grund kommen,
daß die Nachfrage für das entwikkelte
Produkt falsch eingeschätzt worden
ist.
Wie sehr sich sogar versierte
Fachleute über die Akzeptanz von neuen
Produkten täuschen können, erfahren
innovative Unternehmen allenthalben.
Der vom Erfolg so sehr verwöhnte
Polaroid-Konzern hatte riesige Summen
in ein Projekt gesteckt, von dem
jeder hatte glauben müssen, daß es zu
einem wahren Renner werden müsse,
den Polaroid-Kinofilm. Wie bei den stehenden
Buntbildern der beliebten Sofortbild-
Kamera sollten nun auch die
Filmer ihr Werk schon ein paar Minuten
nach der Aufnahme betrachten können.
Als diese Entwicklung in Angriff genommen
wurde, waren die elektroni-
sehen Kameras und Videogeräte allenfalls
für Fernsehanstalten erschwinglich.
Daß deren Preise einmal drastisch
sinken könnten, galt als ausgeschlossen.
Doch sie purzelten und taten dies
just zu dem Zeitpunkt, da Polaroids
nicht gerade billiges Sofort-Kinofilm-
System marktreif geworden war.
Die Bildplatte stand aus dem gleichen
Grund — zunächst – auch unter
keinem guten Stern. Gerettet wurden
die Entwicklungskosten von den CDSchallplatten,
von denen sich der Innovator
anfangs nichts versprochen hatte.
Der CD-Idee steht allerdings bereits
der nächste Konkurrent ins Haus, der
digitale Kassettenrecorder. Sein Vorteil:
Er kann die Musik nicht nur abspielen,
sondern auch aufnehmen.
Noch vermag niemand abzuschätzen,
ob der Bildschirmtext der Deutschen
Bundespost einmal zu den erfolgreichen
Innovationen der achtziger
Jahre gezählt werden wird. Computernetze,
innerbetriebliche wie weltumspannende,
haben sich längst durchgesetzt,
sind lebenswichtig für die moderne
Wirtschaft und die wissenschaftlichen
Zentren unserer Tage geworden.
Für den Informationstransfer also besteht
nach wie vor großer Bedarf. Doch
ob er bis in die Privatwohnung reichen
soll, ist kaum abzuschätzen. Das Bankgeschäft
an der Tastatur, der Warenhauskatalog
auf dem Bildschirm, Anzeigen
auf dem Monitor, die sowieso in
der Zeitung stehen, und Nachrichten,
die man am Fernsehen ohnehin vorgelesen
bekommt — das alles ist nicht
sonderlich attraktiv.
Datenbanken, die nicht nur professionellen
Benutzern zur Verfügung stehen,
das laufend aktualisierte elektronische
Konversationslexikon etwa, werden
dort, wo sie schon angeboten werden
— Beispiel USA —, von Privatpersonen
kaum benutzt. Wer weiß, vielleicht
überschätzen wir den Wissensdurst
unserer Mitmenschen.
Veteran auf der Liste der zu erwartenden
technischen Neuerungen ist
das Telefon, an dem der Teilnehmer
vom anderen Ende nicht nur zu hören,
sondern auch zu sehen ist. Kaum war
die Braunsche Röhre für das Fernsehen
entdeckt, konnten Besucher der
Berliner Funkausstellung 1934 per Bildtelefon
miteinander kommunizieren. Bis
heute aber ist es ein Ausstellungsspektakel
geblieben. Viel Hoffnung besteht
für den technischen Ladenhüter wohl
nicht mehr. Wer Abend für Abend Menschen
am Bildschirm betrachtet, findet
Gesprächspartner auf der Mattscheibe
nicht mehr sonderlich sehenswert.
Sind zur Zeit entscheidende technische
Innovationen in Sicht? Nach allem
Gesagten mag diese Frage absurd
klingen. Gestellt werden aber muß sie,
jeden Tag auf’s neue, von Industrie,
Wirtschaft und Politik, so wenig zuverlässig
auch die Antworten ausfallen
mögen. Freilich beziehen sich die wichtigen
Voraussagen ohnehin auf nicht
allzu große Zeiträume. Und da ist es
halt wie mit der Wetterprognose — je
kurzfristiger, desto brauchbarer.
Die folgenreichsten technischen
Veränderungen hat unser Jahrzehnt auf
dem Gebiet der High-Tech erlebt, und
dies wird sich mit großer Wahrscheinlichkeit
noch eine Weile fortsetzen. Vor
allem die Robotik dürfte erst am Anfang
ihrer Entwicklung stehen. Daß es mit
den Robotern anfangs so schleppend
vorwärts ging, hatte einen unerwarteten
Grund: Es stellte sich heraus, daß nicht
etwa die Tätigkeiten, die uns ais besonders
hochwertig vorkommen, nämlich
die vom Großhirn gesteuerten wie das
Rechnen oder logische Schließen, die
größten Schwierigkeiten bei ihrer
maschinellen Simulation bereiten. Als
widerspenstig erweisen sich gerade
die Fähigkeiten, die aus den alten Regionen
des Denkorgans gespeist werden,
so simple Dinge wie Handbewegungen,
das Laufen oder das Erkennen
einfacher Formen. Hier aber hat die
Technik enorme Fortschritte gemacht.
In Sicht ist zum Beispiel der Roboter für
den Warenversand. Er wird uneinheitlich
geformte Gegenstände optimal in
einem Laderaum stapeln können. Für
die Texterfassung für Datenbanken und
Verlage sind Lesemaschinen vonnöten,
die nicht nur auf ein paar Schrifttypen
und -großen fixiert und nicht so fehleranfällig
sind wie die gegenwärtig angebotenen
Geräte.
Als Ende der fünfziger Jahre die
ersten Computer verkauft wurden,
konnten nur Programmierer mit ihnen
umgehen. Kein Wunder, daß Utopisten
wähnten, bald würde jeder Mensch die
Kunst des Programmierens beherrschen
müssen. Es ist anders gekommen.
Computer stehen in fast jedem
Büro und werden von Personen bedient,
die nicht einmal eine vage Vorstellung
von einem Computerprogramm
haben. Gerade in den letzten
Jahren sind die Rechner mehr und
mehr der Bequemlichkeit des Benutzers
angepaßt worden. Was einer zu
tun hat, um die Maschine zu der einen
oder anderen Tätigkeit zu bewegen,
tippt er in gewöhnlicher Umgangssprache
auf die Tastatur. Und wo der Kürze
halber bestimmte Befehle mit einem
Tastendruck gegeben werden müssen,
wird dem Benutzer ausführlich am Bildschirm
erklärt, was er zu tippen hat.
Einfacher wäre es nur noch, wenn wir
dem Gerät sagen könnten, was es tun
soll. Solche Sprachein- und -ausgäbe
ist im Prinzip ein seit langem gelöstes
Problem. Im Jahre 1956 führte Claude
Shannon am Bell-Laboratorium staunenden
Besuchern vor, wie er sich mit
einer Maschine unterhielt. Doch nur er
wurde von dem Apparat verstanden,
und auch nur, wenn er nicht gerade eine
Erkältung hatte.
D iese Unzulänglichkeit plagt die
Speechprocessor-Spezialisten immer
noch. Mit dem Sprechen hat der entsprechend
ausgestattete Computer
kein Problem mehr. Sein Dialekt ähnelt
immer weniger den blechernen Science-
fiction-Stimmen. Aber es fällt ihm
schwer, die sprachbestimmenden
Formanten aus dem Frequenzgemisch,
das unsereiner von sich gibt, herauszufischen.
Zu allem Überfluß sind diese
auch noch von Sprecher zu Sprecher
so verschieden wie Fingerabdrücke.
Daß wir überhaupt einander verstehen,
grenzt an ein Wunder. Dieses jedoch
glauben Ingenieure auch an Maschinen
vollbringen zu können. Kurze gesprochene
Befehle zum Beispiel befolgen
experimentelle Geräte in den Labors
der Industrie schon recht akkurat.
Als Computer noch ganze Stockwerke
füllten, wurden sie gerne „Elektronengehirne“
genannt, und Philosophen
beschäftigten sich mit der Frage,
ob eine Maschine ein Bewußtsein haben
könne. Der Gedanke, die rechnenden,
logisch schließenden und in begrenztem
Rahmen gar lernenden Automaten
müssten Ähnlichkeit mit dem
menschlichen Gehirn haben, lag nahe
und inspirierte Wissenschaftler, sich
über künstliche Intelligenz Gedanken
zu machen. Inzwischen sehen wir Elektronenrechner
viel nüchterner, aber das
Forschungsgebiet „Künstliche Intelligenz“
ist geblieben. Sein Name hat zu
Mißverständnissen auch unter Fachleuten
geführt. Manche eher abenteuerlichen
Versuche, etwa das Bestreben,
ausgerechnet in der psychiatrischen
Sprechstunde einen Computer als Therapeuten
einzusetzen, nagten am guten
Ruf der neuen Disziplin. Doch sie hielt
sich wacker und brachte inzwischen
außerordentlich nützliche Programme
hervor, die „Expertensysteme“.
Die Idee, Expertenwissen so zu
speichern und zu strukturieren, daß es
von denen, die Expertenrat benötigen,
abgerufen werden kann — sogar mit
nicht sonderlich präzisen Fragen -,
lag nahe. Ihre Ausführung stellte extrem
hohe Ansprüche an die Programmierer.
Expertensysteme für Ärzte, für Computerbenutzer,
für die Reparaturcrew auf
einer Ölbohrinsel oder für Laboranten
in Forschungsinstituten haben sich
längst bestens bewährt. Dennoch
steckt die Entwicklung noch in den Kinderschuhen.
Expertensysteme, die lernen
und sich deshalb in der Praxis laufend
selbst verbessern können, stehen
auf dem Forschungsprogramm. Wer
hier für die nahe Zukunft beachtliche
Fortschritte prognostiziert, wird kein allzu
großes Wagnis eingehen. In der Medizin
steht die Entwicklung des Aids-
Impfstoffes bevor, für die saubere Umwelt
stehen allerlei neue Abgasfilter auf
dem Programm, und Gott weiß, was die
Kriegsindustrie in aller Welt ausbrüten
wird. Qui vivra, verra.