HD Schellnack /// Kontakt Twitter iPhoto pointandshoot Typographie Alternative Pop Licht nodesign Aktionen Zitat Natur Photographie Denken Fail ScienceFiction Apple Studium Belletristik Comics Dayshot Vernacular Scratchbook Werbung Fragen Winter Software Medien Fun Retro Gesellschaft Farbe Print Electronic Magazine iOS Zukunft Web Drama Frühling Jazz Sommer Kitsch Kunst Sachbuch Hardware Fantasy Klassik Herbst Thriller Emma

Interfaces

hd schellnack

Eine der größten Revolutionen in der Kommunikation mit Computern ist neben der Rolle, die Computer im Alltag zunehmend fast beiläufig und wie selbstverständlich spielen, dass wir nicht mehr mit den gewohnten Interface-Schnittstellen arbeiten, die dem Menschen die Logik einer von der Schreibmaschine abgeleiteten Interaktion aufzwingen, sondern die digitalen Schnittstellen so rapide und grundlegend den menschlichen Sinnen und Werkzeugen entgegen kommen, dass eine Unterscheidung zwischen »analog« und »digital« zunehmend obsolet wirkt. Berührung, Stimme, handschriftliche Zeichen oder sogar Blicke – obwohl die meisten Technologien oft noch rudimentär wirken, hat sich bereits durch diese Ansätze der Umgang mit, vor allem aber das Denken über Software-Interaktionen grundlegend geändert.

Hand
Vor nicht einer Dekade noch komplett in den Kinderschuhen, ist die Steuerung von Software durch Berührung(en) heute längst zu einem Quasi-Standard geworden. Musste man bis vor einigen Jahren noch mit einem Stift auf einer Art Plastikbildschirm herumtippen, Soseins moderne kapazitative Glasdisplays in der Lage, Bewegungen und multiple Berührungspunkte zu deuten, durch Gyroskop und Accelorometer sogar eine Art Anschlagstärke zu ermitteln (etwa bei Garageband). Samsung hat diese Technolgie gerade erst auf der CES 2012 auf Fenstergröße übertragen. Obwohl erst wenige Jahre verfügbar, hat dieser Ansatz zusammen mit fast rahmenlosen, leichten, tragbaren Devices zu einem kompletten Umdenken über Interfaces geführt. Ein Programm ist nicht mehr ein über die Maus-Tastatur-Metapher gesteuerte abstrakte Lösung in einem Monitor, ein Programm simuliert heute das, was es als Lösung anbietet und wird so als Programm unsichtbar. Ein Taschenrechner sieht aus und bedient sich wie ein Taschenrechner, ein Notizbuch sieht aus wie ein echtes Büchlein, beim virtuellen eBook lassen sich die Seiten umblättern als wären sie fast echt, ein DJ-Mischpulte bietet Plattenteller und Mischpultregler und so weiter. Es gibt zwar noch Menüs, aber auch diese wirken eher wie eine Übergangslösung, ansonsten: keine Tastaturkürzel, keine rechten oder doppelten Mausklicks – sondern eine möglichst approximative Simulation, die optisch aber auch von der Bedienung her daran gemessen werden kann, wie »echt« sich die Bedienung anfühlt.

Apple wurde – auch von mir – für die etwas kitschigen Nutzer-Interfaces von iCal und Co. gescholten, aber tatsächlich ist diese Annäherung an das Echte nur konsequent bzw. der sinnvolle erste Schritt zu »Simulacra-Softwares«. Das iPad kann bereits jedes Kleinkind bedienen, weil das unmittelbare Bedienen durch Drücken, Ziehen und andere Gesten mit den dazugehörigen Effekten der Lernfähigkeit der menschlichen Natur entspricht, Cause-and-Effect kennen wir ja auch aus der realen Welt. Angeblich fangen ja die ersten an Tabletts gewöhnten Kleinkinder bereits an, enttäuscht zu reagieren, wen sich echte Bücher eben nicht auf einen Tap hin öffnen oder reale Gegenstände nicht wie virtuelle auf Berührung reagieren und eine Animation starten. Dabei ist das Herumtasten auf einer kalten Glasscheibe sicher nur ein erster Schritt zu berührungssensitiver Kontrolle von Software-Interfaces. So wie es über kurz oder lang unweigerlich 3D-Displays geben wird (und ansatzweise ja bereits gibt), werden wir auch Bildschirme haben, die auf Berührung mit einer Art von Widerstand Feedback geben können und die unterscheiden können zwischen verschiedenen Abständen zum Display (Hover) bzw. auch direkt auf die Stärke des Anschlags. Die jetzt sehr eindimensionale Touch-Fähigkeit wird sich also nach und nach erweitern, bis die Displays nicht nur visuell einen realen Gegenstand simulieren können (und dies mit hochauflösenden Displays zunehmend an der Grenze, an der das menschliche Auge zwischen »echt« und »unecht« nicht mehr unterscheiden kann, d.h. keine Pixelbausteine mehr sichtbar sind), sondern auch haptisch. Nutzen wir einen virtuellen Taschenrechner, wird er nicht nur aussehen und klingen wie »real«, sondern auch die dimensionale Tiefe (3D) haben und sich anfühlen als würden wir auf einem echten Gegenstand Zahlen eingeben, nicht auf der bloßen planen Display-Simulation des Gegenstandes. Die Tasten werden spürbar nachgeben und einen Druckpunkt haben, sie können eventuell durch virtuellen Schweiss und Dreck »rubbelig« werden, sie können sich nach Gummi oder Hartplastik anfühlen. Es wird ein längerer Weg über zahlreiche Zwischenstufen sein, bis man wirklich sensorisch überzeugende Simulationen erzeugen kann, aber es wird sehr wahrscheinlich kommen – wodurch automatisch Abnutzung zu einer Frage der Programmierung wird.

Schon jetzt ist es so, dass ein iPad, iPhone oder Android als »opportunistische« Devices an sich nahezu unsichtbar werden und in einer Art Camouflage alles tut, um sich selbst unsichtbar zu machen und uns zu überzeugen, dass wir einen Photoapparat, ein Buch, eine Klaviatur usw. vor uns haben. Es ist evolutionär nur logisch, dass die Geräte diese Camouflage perfektionieren werden, denn am Markt werden die Anbieter erfolgreich sein, die mit immer neuen Features noch »realistischer« werden. Sowohl Apple als auch Microsoft (mit Windows 8) bauen bereits jetzt auch bei klassischen Desktop-Geräten die Touch-Metapher aus, was bei diesen zunächst hölzern und befremdlich wirkt. Was auf dem Pad sinnfällig ist, wirkt über ein Touchpad nach wie vor zu umständlich – dieser Umstand ist ein Symptom für den Übergang vom »klassischen« Computerparadigma, an dessen spezifische Interface-Metahern wir uns gewöhnt haben, hin zu einem neuen Paradigma, dass die Vorstellung dessen, wie wir mit Computern interagieren, neu definieren wird.


Stimme
Apples »Siri«-Stimmerkennung und -kontrolle ist von Google nicht ohne Grund als revolutionäre Veränderung im Umgang mit Computern (und eben Suchmaschinen) beworben worden. Wo Kommunikation mit dem Computern in den Grenzen der Software (und abgesehen von Abstürzen) bisher weitestgehend sicher und eindeutig war – zieht mit Siri die Fallibilität, das Missverständnis, die Doppeldeutigkeit, eben eine Art »Fuzzyness« ein, die erstmals zu einer Art von Dialog führt, bei der der Computer sogar via verbaler Feedbackschleifen rückfragen kann (und muss!), was der Nutzer denn da eigentlich gemeint haben könnte. Siri ist deshalb natürlich noch – obwohl bereits verblüffend leistungsstark, vor allem in der englischsprachigen Version – eine Art Spielerei, die mehr zu Fehlschlägen und Umwegen als zu einer echten Effizienzsteigerung führt. Es ist nach wie vor ärgerlich, wenn beim Diktat Siri nicht reagiert und man ganze Sätze verliert oder wenn eine einfache SMS vier verschiedene Befehle und Anläufe braucht, bis sie stimmt.

Aber bereits heute gibt es Situationen und Kontexte, in denen Spracheingabe natürlicher und schneller wirkt als der Touchscreen, zumal Siri ohne den Start dezidierter Programme läuft, sondern sich an den User-Bedürfnissen orientiert und die Programme dann selbst auswählt und startet – im Vordergrund steht also was der User will, nicht welches Werkzeug dazu verwendet werden muss. Ich starte also nicht den Browser, um etwas zu suchen, sondern die Software »entscheidet« dies selbst. Diese Art von AI, konsequent zu Ende gedacht, dürfte die Art, wie wir mit Maschinen interagieren, umwälzen und sozusagen renaturalisieren. Nicht nur in dem Sinne, dass wir ganz im Stile von SF-Filmen demnächst Maschinen per Zuruf steuern, sondern weil diese Steuerung wieder analoger (oder zumindest doch simuliert-analoger) wird. Während in den letzten drei bis vier Dekaden wie nie zuvor die visuellen Sinne in den Vordergrund gestellt wurden und wir uns sozusagen evolutionär an diese Verknappung angepasst haben, also Seh-Wesen geworden sind, darf nun der auditive Kanal wieder zum Zuge kommen. Noch ist Siri in der Benutzung dabei eindimensional. Nutze ich die Sprach-Software, wird der visuelle Kanal förmlich abgeschaltet, ich kann nicht auf der visuellen Eingabeebene simultan andere Dinge tun, also etwa einen Text diktieren und gleichzeitig im Web surfen per Touch oder Software per Touch und Stimme kontrollieren, also etwa in Photoshop mit einem Pen oder auf dem Display direkt arbeiten und dabei per Stimmbefehl Werkzeuge auswählen oder Bildeffekte anwenden (»20% mehr Kontrast«). Es ist immer entweder Stummfilm oder Hörspiel. Aber schon jetzt zeichnet sich ab, dass ein stimmbasiertes und dialogorientiertes Interface einen Paradigmenwechsel darstellt, den die Kids, die Siri mit dummen Fragen auszutricksen versuchen (und dabei der Anthropomorphisierung ihrer Hardware auf den Leim gehen, also bereits Interaktionen starten, die sie per Maus/Tastatur niemals so in Betracht ziehen würden), gar nicht verstehen bzw. hinterfragen und der genau deshalb so grandios unsichtbar und sanft stattfindet – ähnlich wie es ja klug war, uns das Cloning als Technologie in Form eines harmlosen Schafes zu präsentieren.

Wir werden erst in einigen Jahren wahrnehmen, wie zentral dieser Shift war. Mit der Stimmkontrolle fällt prinzipiell die Hardware als Interface-Element weg. Es muss nichts mehr »bedient« werden, es gibt keine Tasten zu drücken, keine Zeiger zu bewegen – die Interaktion mit Maschinen wird bei ausgereifter Spracherkennung möglich, ohne ein Werkzeug dafür bedienen und erlernen zu müssen. Der Mensch nähert sich nicht mehr dem Rechner an, sondern umgekehrt.


Schrift
Auf der gleichen Ebene liegt die Entwicklung der Schrifterkennung, die sogar technisch ähnlich gelagert ist, weil hier schnelle Webanbindung und OCR auf leistungsfähigen Servern die ehedem hohen Hardware-Anforderungen für lokale Rechner deutlich gesenkt haben. Ein mobiler Prozessor könnte keine vernünftige Stimm- oder Schriftdechiffrierung leisten, ein kraftvoller Server und ein schnelles Internet aber sehr wohl – die Rechenpower wird einfach ausgelagert. Seit Dekaden ist die eigentlich ja als technische Notlösung zu denkenden QWERTZ-Tastatur der Standard bei der Texteingabe. Ursprünglich entwickelt, um durch eine eben möglichst ungewohnte nicht-alphabetische Tastaturanordung das Schreiben so zu verlangsamen, dass die anfälligen frühen Mechaniken nicht blockieren konnten, haben wir uns so sehr an dieses Layout gewöhnt, dass wir damit aufgrund der Übung oft spürbar schneller und anstrengungsloser schreiben als mit der Hand, so sehr, dass die Handschrift langsam auszusterben droht.

Dennoch kommt die manuelle Eingabe von Schrift und Zeichnungen in den letzten Jahren in eine Art Renaissance – Techniken wie der Livescribe Echo Smartpen oder der Wacom Inkling machen es möglich, unterwegs zu schreiben oder skizzieren, ganz altmodisch auf Papier, und später mit digitalen Daten weiterzuarbeiten. Ob die audiovisuelle «Pencast»-Verknüpfung des Livescribe, der mit einer Kamera auf speziellem Papier die Handschrift aufnimmt und zugleich Ton aufnehmen kann und insofern z.B. für Notizen bei Meetings nahezu ideal ist oder die sich eher an Künstler wendende (und noch nicht ganz ausgereifte) Inkling-Idee eines «Funk»-Stiftes… beide Ansätze können noch nicht hundertprozentig überzeugen. Der Echo-Pen ist klobig und das Schreiben mit der Kugelschreibermine relativ unergonomisch anstrengend, der Inkling zwar kleiner, aber weniger leistungsstark und zudem (noch) relativ unzuverlässig. Dennoch ist es natürlich phantastisch, handschriftliche Notizen, plus einer Aufzeichnung des tatsächlich zeitgleich Gesagten einfach digitalisieren zu können und dabei die Handschrift noch mit einer soliden Trefferquote in MyScript in «getippte» Schrift umwandeln zu können.

Auch hier noch befindet sich die Technik in einer Art Gestationsphase, der man aber bereits anmerkt, welches Potential freigelegt werden kann, wenn ein normaler Schreibakt auf Papier (bzw. auf einem Display, das Papier emuliert) die Tastatur verdrängt. Ein Beispiel für dieses Potential ist die OCR-Engine des Online-Archivs Evernote, das nicht nur die verschiedensten Eingabemedien «schluckt», sondern vor allem auch in jeder Art von Bild, egal ob Photo oder PDF mit handschriftlichen Notizen, nach lesbarem Text sucht und diesen für die Volltextsuche bereitsstellt, also die Welt in Photos «ausliest». Diese serverseitige state-of-the-art-OCR erkennt in Sekunden selbst Worte zuverlässig, die ich selbst kaum noch entziffern kann. Zwar gibt Evernote (unverständlicherweise) bei Handschrift die Ergebnisse nicht als Text aus, sondern nutzt sie wirklich nur für eine Suchfunktion… aber wie gut auch die unlesbarste Schrift hier verlässlich gedeutet wird, zeigt, wie weit die Technik hier ist und wie sehr die Grenzen zwischen Spracheingabe, Tastatur und Stifteingabe hinfällig werden. Wie auch immer wir Informationen eingeben werden – die Devices werden lernen, uns zu verstehen.


Bio-Interfaces
Haptik, Stimme und Schrift sollten bereits genügen, um in den kommenden Jahren die Morphologie der Mensch-Maschine-Kommunikation völlig umzuwälzen. Die Möglichkeiten der kommenden Dekade dürften bereits halten, was SF-Filme noch vor 20 Jahren versprachen, von der Realität des Spielberg-Thrillers «Minority Report» sind wir nicht mehr weit entfernt, zumindest nicht in Sachen Interface-Technologie (Fliegende Autos und Jetpacks lassen nach wie vor auf sich warten.) Bereits jetzt deutet sich aber auch ein weiterer, tiefschürfender Umbruch an, der den gesamten menschlichen Körper zum Interface deklariert. Sanfte Vorläufer sind Waagen und Blutdruck- oder Glucosemessgeräte, die Biodaten an Software übermitteln, Kameras, die mit einem Lächeln ausgelöst werden oder die Gesichter von Freunden automatisch erkennen und für den Autofocus nutzen oder auch Gadgets wie das Jawbone Up, das (wenn auch noch unfassbar primitiv) Bewegungssignale ermitteln und an das iPhone übertragen kann. Auch DSLR-Kameras können ja heute bereits analysieren, wohin wir durch den Sucher blicken und auf das, was unser Auge ansieht, automatisch scharfstellen.

Unsere Vitalzeichen, wie lange wir schlafen, unsere Stimmungen und Ernährung werden über kurz oder lang zunächst nur im Sinne reiner Datensammlung, mittelfristig aber auch als Steuerparameter direkt von Softwares genutzt werden. Dies wahrscheinlich zunächst im spezialisierten Bereich – etwa von Pflegerobotik oder Überwachungssystemen in Krankenhäusern -, sehr bald aber auch im privaten Segment… schon jetzt verkaufen sich Apps und Gagdgets für das Self-Monitoring ausgezeichnet. Was man sich zunächst so einfach denken kann wie Kochbuch-Applikationen, die auf anderenorts gesetzte Diätwerte und -ziele reagieren oder ein iTunes, das auf Stimmungen oder beim Jogging auf das Pulstempo reagiert, öffnet zwei neue Perspektiven… die Nutzung des gesamten Körpers als Interface und die Nutzung des Gehirns im Speziellen. Das Body-Interface kann natürlich bedeuten, dass Software aktiv auf größere Bewegungen, Gesten, Vitalwerte, aber auch auf Geo-Daten und Zeitdaten reagiert (so wie jetzt ja schon Reminder-Softwares aktiv auf GPS-Daten anspringen und uns im Supermarkt die Einkaufsliste zeigen). Der physische Körper und sein Umfeld werden so zu Eingabe-Matritzen der Software. Was der Mensch wo und wann macht, wird zum kybernetischen Steuerimpuls.

Der andere Aspekt, die direkte Schnittstelle ins Gehirn, klingt aus heutiger Sicht nach SF, selbst wenn in der neuronalen Steuerung von Implantaten und Prothesen in den letzten Jahren ebenso sprunghafte Fortschritte gemacht werden wie in der «Geodäsie» der Gehirnfunktionen. Die Idee, direkt aus neuronalen Strömen heraus Software zu steuern bzw. von dieser auch unmittelbar, unter Umgehung anderer Sinnesorgane, Eindrücke vermittelt zu kriegen, mag heute noch abenteuerlich klingen. Aber das, was wir heute Smartphone nennen, war bis vor 50 Jahren auch noch auf Serien wie StarTrek begrenzt (»Navigator«) und dabei deutlich kruder und begrenzter als die heutige Realität, die jedermann frei zugänglich ist. Umgekehrt waren in den 60er Jahren Körpermoddings, die heute für jeden Teenager zum Alltag gehören, undenkbar. Wer hätte zu Zeiten von Truman oder selbst Kennedy geglaubt, in welchem Maße Piercings, Tattoos und anderen Selbstverstümmelungsstrategien reguläre, ja fast langweilige Modephänmene werden würden – wer hätte zu Zeiten von »Mad Men« voraussehen wollen, dass es heute einen Boom zur elektrische Zigarette geben würde? Will man da heute wirklich noch ernsthaft bezweifeln, dass Google Translation irgendwann so effektiv sein wird, dass wir uns in Echtzeit grob in fremden Sprachen werden unterhalten können – per Spracherkennung, serverbasierter Übersetzung und Sprachausgabe? Marshall McLuhans 1969er Vision einer telepathischen Welt, in der – über das hochraffinierte Werkzeug Computer, das alle anderen kruderen Werkzeuge überschreibt – ein «universales Verständnis» möglich wird, ist zum Greifen nahe.


Der siebte Sinn
Das Interessante an all diesen Entwicklungen ist, dass sie sich dem Menschen zuneigen. Anstatt uns seltsame krude Werkzeuge aufzuzwingen, nähert sich Maschine und Software immer mehr unseren ureigentlichen Kommunikationswerkzeugen an. Tastatur und Maus weichen Gestik, Handschrift, Stimme und Auge, die Lernkurve für die »Steuerung« von Software wird immer flacher, ähnelt immer mehr biologischen Prozessen. Die Maschinen werden biomorph. Man darf diese Entwicklung durchaus kritisch sehen, vor allem wenn sie primär gewinnorientiert und ohne ethische Kontrolle abläuft, wird sie aber kaum mehr zurückdrehen können. Der Computer – und noch viel mehr der Äther des Web – sind Büchsen der Pandora, die nur vielleicht ein verheerender Krieg oder eine andere Katastrophe kurzfristig wieder verschließen würde. Positiv gesehen aber fallen hierdurch technologische Krücken weg, die wir seit Gutenberg benutzen, um umständlich eine Brücke zwischen Massenkommunikation und individuellen Ausdruckspotentialen zu schlagen.

Phoneme, Alphabet, Druck, selbst Schallplatte und Video sind nur Faustkeile… und je fortschrittlicher die biomorphen Interfaces werden, um so einfacher und unkomplizierter wird unsere Kommunikation untereinander und mit Maschinen werden. Der Clou dabei ist, dass das Medium sich dabei auflöst. Der Rechner als große Konvergenzmaschine, der sämtliche medialen Ausdrucksformen binär zerhäckselt und völlig neu zusammenstückeln kann, dem es denkbar egal ist, ob er nun Musik oder Bilder, Schrift oder Töne in 0 und 1 auflöst, wird in den kommenden Jahren selbst unsichtbar werden. Bereits das iPad bricht mit der Metapher des »Computers«, ja des technischen Gerätes schlechthin. Abgesehen von einem in Zukunft wahrscheinlich zusätzlich verschwindenden Minimum an Knöpfen ist es als technisches Utensil nicht zu erkennen – die Eigenbedienung ist ein Minimum, das gerät verwandelt sich durch die Software in was immer auf dem Bildschirm an sich gezeigt wird… wobei das Wort «Bildschirm» schon fast in die Irre führt, wenn das ganze Gerät nur noch ein Screen ist.

Die Frage, inwieweit Computer und Web noch als solche wahrnehmbar sind, wenn es nicht einmal mehr den Bildschirm gibt, sondern osmotische oder sogar direkte neuronale Verbindungen für selbsttätige Steuerungsmechanismen sorgen, die intuitiv, instinktiv genutzt werden können, stellt sich kaum: Was heute noch «externe» Medien sind, würde tatsächlich zur symbiotischen Sinneserweiterung, zu einem siebten, achten, neunten Sinn. Wohin sich das entwickelt sieht man schon heute, wenn Leute bei Gesprächen Fakten kurz googlen, mitten in einem Film mit IMDB nach Trivia suchen oder oft zwar durchaus in der echten Welt anwesend, aber simultan auch in Facebook oder Twitter oder Instagram aktiv sind. Diese Form von Multitasking wird ein Standard werden, eine Art Layer, das sich über die normale Kommunikation legt und durch den Wegfall klassischer Interface-Hardware quasi unsichtbar wird, die Form eines internen Monologs annehmen kann.

Wir sind bereits heute permanent online – in Zukunft kann das aber ein Teil der tatsächlichen Wahrnehmung von Welt sein, was heute grobmotorisch als Augmented Reality vermarktet wird. Konsequent zu Ende gedacht, wäre ein derartige nahtlose Verbindung mit Hard- und Software eine Erweiterung unserer mentalen Möglichkeiten, für die wir Menschen sozusagen Anlauf und Training brauchen, weil unser Gehirn sich den Möglichkeiten wird anpassen müssen (so wie es ja bereits jetzt langsam notgedrungen neue Selegierungsstrategien gegen den Zerstreuungsmechanismus einer vernetzten Welt entwickelt, wobei uns wieder Software gegen die Gefahren anderer Software zur Seite springt…). Diese Sinneserweiterung wird auf eine Art begrenzte elektronische Telepathie hinauslaufen – du wirst ohne Bildschirm, ohne Tastatur, ohne »Gerät« in irgendeinem Sinne wissen, ob es Freunden eine halbe Welt entfernt gerade gut oder schlecht geht. Und es läuft auf eine sanfte Allwissenheit hinaus – weil der Wissensschatz des Webs nicht mehr per Suchmaschine erarbeitet werden muss, sondern ebenso neural einfach »da« ist wie andere Informationen und Erinnerungen ja auch. (Spannend und erschreckend wird die Frage, wie Werbung dann wohl funktioniert…)

Obwohl ich nicht sicher bin, inwieweit unsere Generation solche biotechnologischen Verschmelzungen noch miterleben wird, zeichnen sich solche Lösungen logisch ab. Zum einen werden Prozessoren, wenn sie weiter hohe Leistungssprünge bringen wollen, irgendwann biologisch funktionieren müssen, zum anderen stellen Interfaces wie Displays und Tastaturen die größte Hürde für den Verkleinerungstrend von Elektronik dar. Die Prozessoren und Speicher selbst sind längst winzig – nur der Mensch braucht eine gewissen Bildschirmgröße und seinem Körper entsprechend große Eingabewerkzeuge, um mit dem Rechner in Dialog treten zu können. Die Vorstellung, dass Hersteller früher oder später den gordischen Knoten durchschlagen und weitestgehend auf Hardware verzichten werden, ist also naheliegend. Die Vorstellung davon, wie diese Art von direkter Wahrnehmung von softwarebasierten Angeboten als «Sinn» sich anfühlen mag, wie es sein könnte, wenn Informationen, aber auch Spiele, Musik, Filme usw. direkt als «Schicht» über unserer normalen Wahrnehmung liegen oder mit dieser unzertrennbar verwoben sind, kann man sich bestenfalls als psychedelischen Trip vorstellen. Ich habe kaum Zweifel daran, dass wir uns als Menschen an diese induzierten zusätzlichen Sinne gewöhnen werden – wie wir uns an andere mediale Dinge auch gewöhnt haben, die zwei drei Generationen vorher die Menschen in den Wahnsinn getrieben hätte. Die physische Härte moderner Metal- oder Drum’n’Bass-Musik, die extrem schnellen Schnitte in Musikvideos, die surreale Unwirklichkeit von 3D-Filmen, die Absurdität der meisten Werbefilme, die generelle Schnelligkeit der Zivilisation heute – all das dürfte einen Besucher aus den 1920er Jahren zur Verzweiflung bringen, ist für uns aber Alltag. Wer weiß also, woran sich unsere Nachfahren anpassen werden können?

Unsere Generation wird den langen – und sicher spannenden – Weg machen weg von Computern als «externe» Arbeitsgeräte hin zu alltäglichen Begleitern. Aus schrankwandgroßen besseren Taschenrechnern sind in nicht einmal 50 Jahren taschenrechnergroße exzellente Multifunktionsgeräte geworden, die die meisten bisherigen Medienangebote nahtlos in sich vereinen. Geräte, deren Evolution und (Markt-)Überleben davon abhängt, sich für ihre Nutzer unersetzbar zu machen. Unsere Generation wird entscheidend miterleben, wie dieses Eindringen von Web und Software in den Alltag unser Verhalten und unseren Umgang miteinander entscheidend verändern muss. Unser Denken über Copyright, Verhaltenskodexe, wirtschaftliche Modelle, Beziehungsideale, Berufswege, Mode, Kunst, Freundschaft, Kommunikation, Wahrheit – nichts wird dieser so unscheinbar anfangenden Revolution gewachsen sein. Wir stecken mittendrin und haben die Möglichkeit (und wahrscheinlich die Pflicht), in irgendeiner Form diese Entwicklung mit zu formen… zwischen Hypermarken, die den Markt dominieren und einer Politik, die reflexartig solchen Großunternehmen zuzuarbeiten gewohnt ist, ohne die man allerdings auch die Annehmlichkeiten moderner Technik nicht hätte, so dass nie ganz klar ist, ob man Google, Apple und Co nun lieben oder verfluchen sollte. Der Weg zu den neuen Interfaces wird voller wunderbarer Paradoxien und Irrläufer sein.
Freuen wir uns drauf.

19. Januar 2012 17:46 Uhr. Kategorie Technik. Tag , , , , , , , .
Eine Antwort.

«
»

1 Antwort

Antworten

Schreibe eine Antwort, oder hinterlasse einen Trackback von deiner Site. Antworten abonnieren.


Creative Commons Licence