HD Schellnack /// Kontakt Twitter iPhoto pointandshoot Typographie Alternative Pop Licht nodesign Aktionen Zitat Natur Photographie Denken Fail ScienceFiction Apple Studium Belletristik Comics Dayshot Vernacular Scratchbook Werbung Fragen Winter Software Medien Fun Retro Gesellschaft Farbe Print Electronic Magazine iOS Zukunft Web Drama Frühling Jazz Sommer Kitsch Kunst Sachbuch Hardware Fantasy Klassik Herbst Thriller Emma

Ach Microsoft…

hd schellnack

14. Mai 2013 10:48 Uhr. Kategorie Technik. Tag , . Keine Antwort.

Philips Hue

hd schellnack

Bereits letztes Jahr bestellt und jetzt – allerdings früher als im angekündigten März – angekommen: Das Philips Hue Lichtsystem, mit dem Philips sich erneut als Trendsetter in Sachen iOS-Zubehör und Licht etabliert. Die 8,5 Watt-LED-Birnen entsprechen etwa herkömmlichen 50-Watt-Birnen, haben ein sehr akzeptables Starttempo und sind absolut flackerfrei und ruhig im Licht, verbrauchen aber rund 80 % weniger Strom als herkömmliche Birnen, die Lebensdauer ist auf 15.000 Stunden angekündigt (da darf man gespannt sein).

Der Clou an dem hue-System, das derzeit exklusiv über den Apple Store verkauft wird, ist, dass es eben auch exklusiv mit Apple-Produkten funktioniert. Die Lampen werden über eine iOS-App gesteuert, entweder direkt via WLAN oder – sofern man sich im huePortal angemeldet hat – auch über Funknetz. Das Portal dient zugleich der Synchronisation von Einstellungen und Lichtstimmungen. Die App kann her eine zentrale «Bridge», die per (beigelegten) LAN-Kabel am Router angeschlossen ist mit allen Lampen (laut Philips bis zu 50) kommunizieren kann und in Echtzeit die Befehle der App-Steuereinheit weitergibt. Die smarte Nutzung von App und dem etablierten ZigBeeLightLink ergibt eine in der Praxis absolut überzeugende Lichtlösung.

hd schellnack

Natürlich kann man mit den Hues ordentlich Disco machen (es gibt sogar eine entsprechende, klanggesteuerte App), der wahre Nutzen ist aber einfacher. Man kann im Büro über den Tag entweder manuell oder per Zeitsteuerung die globale sowie individuelle Lichtleistung komplett steuern, jeder Mitarbeiter kann via App «sein» Licht beeinflussen. Philips liefert fertige Lichtrezepte wie «Mehr Energie» oder «Konzentration» mit, die mal mehr mal weniger zu Tageslicht oder Warmlicht neigen, man kann aber auch komplexere Lichtstimmungen erzeugen, indem man etwa mit der einfach zu bedienenden Farbwerte aus einem Photo ausliest, wobei jede Lampe ihren eigenen Farbpicker hat. Das Anmelden des iPhone ist denkbar einfach, App starten, Bridge-Knopf zur Anmeldung drücken – und neue Birnen werden mit Hilfe der App einfach hinzugefügt und können individuell benannt werden. Dass die Birnen bei der Identifizierung blinken, hilft in komplexeren Situationen, die richtige LED zu finden.

Für ein Designbüro ist diese Sache deutlich mehr als ein Spielzeug. Wir können von Tageslicht zur normalen Farbbestimmung bis hin zu einer präsentationstaugichen Dämmerung das Licht sekundenschnell den Arbeitsbedürfnissen anpassen, ohne Lichtschalter bedienen zu müssen. Bei längeren Schichten kann man sich abends eine etwas kuscheligere Stimmung machen, wenn man konzentrierte Lichtpower braucht, ist aber auch ein helles, weißes Licht problemlos gegeben. Bürolampen werden auf einmal zu dimmbaren, weitgehend farbanpassbaren Umgebungsfaktoren – die ergonomische Wirkung ist enorm. Dazu kommt, dass das Licht durchaus angenehm ist, vor allem auch ein glaubhaftes «warmes» Licht möglich ist und die Lampen keinerlei Wärme abgeben.

Es ist zunächst ungewohnt, die Lampen nicht mehr durch die Lichtschalter zu bedienen (was jederzeit geht, natürlich), sondern per Smartphone, Web oder iPad zu steuern. Aber die Vorteile liegen auf der Hand: Die Lampen schalten sich automatisch vor Arbeitsbeginn an, man muss nie wieder ins Büro, weil man das Licht vergessen hat – und im Urlaub kann man eventuellen Einbrechern vom Strand aus eine belebte Wohnung vorgaukeln, wenn man will ;-).

Es ist etwas aufwendig, vor allem bei mehreren Birnen, das System sinnvoll einzurichten, da neue Birnen immer manuell konfiguriert werden müssen, also in einer Farbszene aktiviert sein wollen. Aber natürlich ist dies die Basis für Lichtnutzung in verschiedenen Räumen, da nur so jede Birne in einzelnen Szenen gezielt an/aus und auch hell/dunkel und nicht nur in der Farbe kontrollierbar ist.

Hue ist eine der ersten Anwendungen, die so effektiv Vernetzung/Smart Home und einen Alltagsgegenstand so nahtlos neu erfindet – man darf gespannt sein, wie diese Idee sich auch kommerziell und in interaktiven Experimenten und später zusammen mit «autolucenten» Wänden usw. einsetzen lassen wird. Mit Ideen wie dieser könnte der Abschied von der Glühbirne zumindest teilweise leichter fallen.

hd schellnack

16. Januar 2013 21:23 Uhr. Kategorie Technik. Tag , , , , , , , . Keine Antwort.

2Do Review

hd schellnack

2Do – das bessere Things? Das ist mein erster Eindruck nach ein wenig Testen mit dem neuen Taskmanager von GuidedWays, die neben vor allem islamischer Software bisher durch die exzellente 2Do-Software für iOS und Android bekannt waren. 2Do für OSX ist das Dektop-Gegenstück der mobilen Software und setzt wie diese auf einen einfachen iCloud-Sync, um die Daten abzugleichen. Das bedeutet zugleich auch, dass ToDos automatisch mit der Apple-eigenen Software «Erinnerungen» abgeglichen werden, was einen enormen Vorteil bietet, da über diese Schnittstelle wieder andere Dienste mit den Aufgaben gefüttert werden können.

Sauberes Interface

2Do bietet eine überraschend klare und vertraute Oberfläche – wer einmal mit dem einstmals so erfolgreichen, inzwischen aber fast eingeschlafenen Things gearbeitet hat, wird sich ziemlich sofort zurechtfinden. Zahlreiche Tastaturkürzel machen die effektive Eingabe von Aufgaben effizient, wenn auch das Eingeben von Datum und Uhrzeit nicht so federleicht geht, wie man es etwa von Omnifocus gewöhnt war – die Software erkennt zwar, dass mit 14 der 14. Tag des Monats gemeint ist, aber mit vageren Dingen wie «+1», «tomorrow» oder «next week» ist sie überfordert. Dafür ist der Tabulator bei der Schnelleingabe – die man überall im System sofort hervorrufen kann – in der Reihenfolge fast perfekt gedacht, besser wäre jedoch, wenn nach New Task sofort das DueDate käme und nicht die Notizen und die Tags vorweg.

Organisationswerkzeuge

Neben einfachen Aufgaben lassen sich auch verschachtelte Projekte und Checklisten erstellen, die auch Audio- und Bilddaten sowie Notizen enthalten können. Personen sind diese Aufgaben aber nicht zuweisbar, 2Do ist nicht wirklich gruppentauglich angelegt bisher. Prioritäten und als zusätzliche Auszeichnung ein Stern machen es relativ leicht, die Dringlichkeit zu organisieren und zusätzliche Listen, die man jederzeit einfach anlegen kann und die sich ebenfalls mit «Erinnerungen» synchronisieren, sind eine weitere Organisationshilfe. Leider lassen sich Tasks nicht manuell am Tag in der Reihenfolge verschieben

2Do ist eine vom ersten Moment an grundsolide Aufgabenverwaltung, die leider nicht so durch Details begeistert wie das iOS-Gegenstück, das fast konkurrenzlos auf dem iPad ist.

Es fehlt mir an einer Eingabe über die Menüleiste von OSX, wie es andere Softwares anbieten, es fehlt ein einfaches Drag-und-Drop von Mails oder Links oder Daten, die sofort zu ToDos werden (wie bei Alarms), der iCloud-Sync ist nicht vollautomatisch (oder zumindest dabei nicht so gefühlt sofort wie der von Alarms oder Erinnerungen).

Viele Features

Mit einer 1.0er Version mit Marktführern wir Things oder Omnifocus gleichzuziehen und den mobilen 2Do-Versionen eine souveräne Desktop-Version gegenüberzustellen, ist beileibe keine zu unterschätzende Leistung, und entsprechend ist 2Do eine wirklich sinnvolle Software, die vom Stand weg ein Design anbietet, das den Spaßfaktor von Things mit der Effektivität von Omnifocus verbindet. Anders als Things von CulturedCode ist 2Do allerdings besser mit dem Apple-eigenem Taskmanagement, und damit mit der Siri-Texteingabe und iCloud als Web-Frontend, verzahnt. Wo man bei Things umständlich importieren muss, ist bei 2Do der Workflow nahtlos. Wie bei Things kann man tags verwenden und nach diesen filtern, auch wenn diese Funktion etwas versteckter ist als vielleicht bei Things, dafür aber durchaus mächtiger, man kann zum Beispiel Tag-Gruppen bilden und dadurch recht wirksam die fehlende Ressourcen/Personen-Zuordnung zumindest ansatzweise umgehen, indem man in Task-Ordnern und Projekten eine Gliederung zweiter Art erstellen kann. Die Suchfunktionen von 2Do sind zudem überragend – die Kombination aus Ordnern, Tags, Priorität, Sternchen und Suche lässt kaum noch Sortierungswünsche offen. Ein Fokus-Modus hilft zudem, die gerade wichtigen Aufgaben nicht aus dem Blick zu verlieren und sogenannte «Smart Lists» lassen Aufgaben lassen sich relativ leicht mit den verschiedensten Parametern als Wiederholungen anlegen, einzelne Ordner vom iCloud-Sync gezielt aussperren, die gesamte App hat einen Passwort-Schutz integriert – es gibt einen Grund, angesichts der Vielzahl an Features, warum GuidedWays dem Produkt eine Anleitung als bebilderte PDF beifügen, zumal manche Tastaturkürzel nicht zu intuitiv sind.

Keine Frage – 30 € für einen Taskmanager sind happig, selbst wenn Things und Omnifocus noch teurer sind, wenn man bedenkt, dass Apple mit Erinnerungen einen für den Hausgebrauch wirklich leistungsfähigen und intuitiven Gratis-Aufgabenverwalter anbietet, der wirklich ausgezeichnet funktioniert. 2Do ist nicht so leicht zu begreifen wie Things und nicht so Poweruser-freundlich wie Omnifocus (das durch AppleScripts eigentlich fast alles mit allem kann), sondern liegt sinnvoll zwischen beiden Applikationen, bietet von beiden das beste, wenn auch nicht die letzten Features – aber die Software ist ja auch noch jung. Im Grunde erinnert 2Do deutlicher an Things UI, weniger an die sehr spartanisch-zweidimensionale Optik von Omnifocus (die dafür aber en detail personalisierbar ist). Und es ist zwar nicht so leichtfüßig wie Apples Erinnerungen (wo das Eingeben neuer Aufgaben unfassbar leicht ist), aber dafür in der Tiefe sehr viel leistungsstärker. Allein die Tatsache, dass man mehrere Tasks umfangreich gleichzeitig editieren kann, ist Gold wert.

Raum für mehr…

Die einzige Taskmanegement-Software, die einen ganz eigenen Weg geht, ist wie gesagt Alarms mit ihrem eher auf kurzfristigkeit angelegtem Menubar-Konzept. Ob Mails oder URLs, Dateien oder eine schnelle Notiz, mit Alarms hat man unfassbar schnell Todos eingegeben und kann Aufgaben flexibel im Micro-Management über den Tag verteilen und prioritisieren, ein einem mehr als ansprechenden Interface. Alarms ist nur leider für das komplexere Verwalten über längere Zeiträume nicht wirklich ideal, weil man stets (und genialerweise) nur die nächsten 24 Stunden im Blick hat. 2Do ist insofern eine ideale Ergänzung, weniger eine Konkurrenz, da beide Softwares über iCloud perfekt miteinander abgeglichen werden. 2Do für den großen Überblick, Alarms für die Tagesplanung. Dennoch hat 2Do eine Menge «room fr improvement». Ein Menubar-Icon mit einer sinnvollen Belegung à la Fantastical (wofür die App dann an sich unsichtbar sein sollte), ein eingebauter Pomodoro-Timer, Schnittstellen zu Omniplan/Merlin, sinnvolle Detailverbesserungen sind sicher denkbar. Man darf also gespannt sein, ob nach dem langen Warten auf die 1.0er Version die zukünftige Entwicklung schneller voran geht, oder ob sich, wie bei vielen anderen kleinen Softwareschmieden auch, die Vielzahl von zu bespielenden Plattformen und die Mühe, die Programme überall up-to-date zu halten und dabei auch noch ein Profitmodell zu finden, eher negativ auf die Entwicklung von 2Do auswirken werden.

11. November 2012 00:31 Uhr. Kategorie Technik. Tag , . 6 Antworten.

Keen in Heaven

hd schellnack

8. November 2012 02:33 Uhr. Kategorie Photos. Tag , . Keine Antwort.

ColorKit Suite von CrumplePop

hd schellnack

Wer mich kennt, weiß, dass ich ein ausgesprochener Fan von kreativen Plug-Ins bin, die mal nur zeitsparend sind, mal die Möglichkeiten der Bildbearbeitung in einem gegebenen Budgetrahmen erweitern und oft genug eine schwierige Produktion auch einfach retten können. Was für den Photoshop gilt, gilt für FinalCut natürlich genauso: Das an sich etwas fade Programm wird schnell spannender, wenn smarte Drittanbieter die Möglichkeit geben, mit besseren Filtern zu arbeiten als Apple selbst sie anbietet. Crumplepop zählt zu diesen Firmen. Die FCPX-Filter sind meist preiswert und schwanken zwischen Gimmick und tatsächlich professionellen Tools. Zwei neue, etwas hochpreisigere Plug-ins, der 16- und 35-mm-Korngenerator Grain 35 und ColorKit, mit dem sich sehr einfach professionelle Film-Farbstimmungen erzeugen lassen, gibt es jetzt mit zwei Licht-Effekten zum Setpreis von 299 € als ColorKit-Suite. Da die beiden «großen» Plug-Ins in der Suite allein jeweils 199 € kosten, ist das ein echtes Angebot und dürfte weiter dazu beitragen, dass Video-Editing das neue Desktop-Publishing wird..

22. Mai 2012 09:21 Uhr. Kategorie Technik. Tag . Keine Antwort.

Paper

hd schellnack

Was von Null zur App der Woche wird, muss schon etwas besonderes sein. »Paper by FiftyThree« ist das zumindest ansatzweise. Es fällt irgendwo zwischen die Notizbuch- und Zeichenapps, die es für das iPad gibt, kommt aber an die besten Vertreter beider Gattungen nicht wirklich hundertprozentig heran. Notebook-Apps wie Bamboo Paper, Noteshelf oder Penultimate können längst Photos importieren, haben variable Stiftgrößen, können zum Teil direkt Texteingabe und sind mitunter an Evernote und Dropbox angebunden und erlauben so einen sehr flüssigen Workflow mit handschriftlichen Notizen. Auf das reine Zeichnen am iPad kaprizierte Apps hingegen bieten volle RGB-Farben, multiple Brushes, Pan und Zoom, Ebenen und höhere Auflösungen. In beiden Bereichen kann »Paper« nicht wirklich mithalten, im Gegenteil. Ist die App dennoch die rund 8€ wert, die sie am Ende kostet, wenn man per In-App-Kauf die kompletten Stifte aktiviert hat?

Jein. »Paper« hat ein herausragendes Interface, mit dem eine Art Moleskine-Skizzenbuch mit einem Bamboo-Stift erstmals wirklich aufkommt. Wie man die Bücher mit einem Pinch öffnet, darin blättern kann, mit einem weiteren Pinch auf der Seite ist – hervorragend gelöst und phantastisch animiert. Der Flow der simulierten Tinten, Bleistifte und Wasserfarben lässt alle anderen Notizbuch-Applikationen (wenn auch nicht SketchBookPro) alt aussehen. Es macht Spaß, in »Paper« zu arbeiten, selbst wenn ich die skeomorphe Werkzeugpalette zu aufdringlich finde. Die Ergebnisse, selbst schnellste Skizzen, können sich sehen lassen und die verschiedenen Werkzeuge und Farben reichen allemal, um Ideen festzuhalten ohne (wie bei reinen Malprogrammen) den User gleich im Overkill der Optionen zu frustrieren oder in der Arbeit zu bremsen. Unter dem Aspekt finde ich die eingeschränkte Farbpalette des Programms fast positiv. Die Rewind-Geste zum Rückgängigmachen bzw. Wiederherstellen ist gegenüber den sonst üblichen Undo/Redo-Buttons ein Geniestreich, so wie Gestensteuerung von »Clear« ja auch ein Gamechanger ist.

hd schellnack

Auf der anderen Seite fehlt es »Paper« an vielem. Der Output ist – obwohl das Programm sich »retina«kompatibel nennt, nur 1048×768 Pixel, also nur halbe Retina-Auflösung, das ist einfach zu wenig. Auch ist es kompliziert, Bilder zu exportieren – ich würde dankbarst auf Twitter und Facebook verzichten, wenn die App wenigstens direkt in die Camera Roll speichern könnte. Aber bisher ist der einzige Weg, Bilder zu exportieren, sich selbst eine PDF zuzuschicken. Von Dropbox oder Evernote keine Spur, obwohl beides gerade für Skizzenbücher enorm Sinn machen würde. Dazu passt leider nur zu gut, dass man nur Einzelseiten als JPG, kein gesamtes Buch als PDF exportieren kann – eigentlich ein Standardfeature in anderen Notizbuchprogrammen. Auch die Fähigkeit, in das »Blatt« zu zoomen und somit etwas feiner arbeiten zu können, sollte eigentlich gegeben sein, und wäre ideal im Kontext mit höherer Bildauflösung. Dagegen ist schon fast ein Detail, dass man beim Umblättern – obwohl das insgesamt schön intuitiv gelöst ist – andauernd unfreiwillig Striche in die Zeichnungen »malt« oder das beim Schreiben am unteren Seitenbereich immer wieder die riesige Werkzeugpalette hochfährt, wodurch dieser Bereich etwas unbrauchbar wird. Zu diesem etwas unfertigen Feeling passt auch, dass es keinen hochformatigen »Portrait«-Modus gibt (wobei man aber, da es ohnehin keine mittlere Trennung der »Doppelseite« gibt, auch im Hochformat malen kann), sondern die App nur quer funktioniert. Schade ist auch die Tatsache, dass es bislang nur unliniertes und unkariertes Papier gibt – wobei ich denke, dass ein Anbieter, der sich jeden Pinsel bezahlen läßt, auch bald auf die Idee kommen wird, zusätzliche Papiere zum Kauf anzubieten.

hd schellnack

Insgesamt hat »Paper« soviel Potential wie Probleme. Interface und Inkflow sind grandios, der Spaßfaktor Ist zweifellos hoch, die einzelnen Notebooks und ihre Cover sehen phantastisch aus, dagegen wirken Bamboo und Noteshelf spontan unattraktiv. Dennoch bringt der schönste Spaß nichts, wenn der Output nicht stimmt. »Paper« braucht vor allem höhere Auflösung, bessere Exportoptionen und dann mehr Werkzeuge und Optionen, um vom Spiel- zum Werkzeug zu werden. Wenn FiftyThree in den nächsten Versionen soviel Detailliebe und Perfektion an den Tag legt wie mit dem Debüt, darf man gespannt sein und auf eine funktionale Einlösung des Versprechens hoffen, dass »Paper« hier abliefert.

hd schellnack

29. März 2012 21:51 Uhr. Kategorie Technik. Tag , , . Keine Antwort.

Der Writer und die Datenwolke

hd schellnack

In dubio pro Wolke
»Seamless creation« dürfte aus meiner Sicht eines der Zauberworte der nächsten Jahre werden. Nachdem man das Wort »cloud« ja langsam schon kaum noch hören kann, abgegriffen, bevor die Technologie noch richtig funktioniert, überholt Apple mit icloud zumindest in einem Aspekt den großen Favoriten Dropbox: Die nahtlose Synchronisierung von Dateien zwischen Geräten in der Apple-Ökosphäre ist, wenn Apples Server mal keinen schlechten Tag haben, ein Traum. Während bereits Applikationen wie DayOne, die iWork-Suite, iLife und viele andere iCloud nutzen, ist das Vorzeigeprojekt für die Vorteile dieser Art von geteilten Daten aus meiner Sicht derzeit iAWriter, der gerade auch als Universal App das iPhone als Plattform nutzt und damit Desktop und iOS komplett abdeckt. Aufgrund der vergleichsweise kleinen Datenmenge, mit der der Writer operiert, geht der Sync enorm flüssig – so schnell sogar, dass man dabei zuschauen kann, wie sich Texte in Echtzeit auf dem iPad aktualisieren, wenn man sie auf Desktop oder iPhone umschreibt.

Arbeit to go
Obwohl der Writer mit einigen Features gegen Programme wie Byword oder Writings nicht mithalten kann, macht ihn dieses «Schreib, wo du willst»-Denken zur derzeit besten Lösung, um Texte zu verfassen. Es ist weniger die sehr ansehnliche visuelle Reduktion, weniger das wunderbar praktische Markup (das Byword nach wie vor besser löst, etwa mit Export der HTML in die Zwischenablage), nicht einmal die großartige, die für mich inzwischen fast unverzichtbare Keyboard-Ergänzungszeile in iOS (mit nach wie vor falschen Guillemets für mich), sondern vielmehr die Möglichkeit, völlig nahtlos zu schreiben. Menschen, die ihr Geld mit dem Verfassen von Texten verdienen, müssen diese Möglichkeit lieben, aber selbst so ist es eine Freude, jederzeit an Ideen schreiben zu können, spontan und egal, wo man gerade ist und vor allem – völlig unabhängig von der Hardware. Writer und iCloud und die reduzierte Anforderung von reinen Textdateien hebeln die Frage, womit man eigentlich schreibt, völlig aus. Natürlich lässt es sich am Desktop besser schreiben als am iPad und dort besser als mit der Winzigtastatur der iPhone – aber abgesehen hiervon begleitet dich der Text auf jedes Gerät, ist immer up-to-date, ohne dass man noch über manuelles Abgleichen (wie etwa bei Dropbox meist nötig) nur noch ansatzweise nachdenken muss. Man mag – zu Recht! – ganz sicher darüber sinnieren, ob es nicht auch Schattenseiten hat, wenn Arbeit einen so ubiquitär verfolgen kann, aber für uns armen Glücklichen, die zwischen »Privat« und »Arbeit« ohnehin eher eine Drehtür oder hauchdünne Membran haben, ist dieses Mitwandern von Daten ein Segen, weil Ideen genau dort festgehalten oder bearbeitet werden können, wo sie entstehen oder wo die Zeit gerade richtig dafür ist. Bis dieser Ansatz auch mit komplexeren Applikationen so richtig funktioniert, wird es sicher eine Weile dauern, aber Apple zeigt seine Ambitionen bereits damit, dass Garageband ab vorgestern nun auf gleiche Art funktionieren soll.

Faul = funktioniert
Was Writer dabei absolut richtig macht – und es sich damit durchaus einfacher macht als so manche Konkurrenten -, ist, gnadenlos auf das etablierte iCloud-API zu setzen. Andere Anbieter werkeln an eigenen Serverlösungen… und das Ergebnis ist nicht nur ein für den Nutzer unüberschaubares Terrain von Sync-Lösungen, Passwörtern und Datenaustauschplattformen, sondern vor allem auch Ansätze, die eben nicht nahtlos ins Betriebssystem verankert sind. Writer wird so zwar von Apples Stimmungsschwankungen zumindest vorläufig etwas abhängiger, hat aber eine cloud-Plattform out of the box lauffähig und problemlos parat, ohne große Mühe, wo andere Anbieter sich seit Monaten abarbeiten und immer noch keine wirklich funktionalen Lösungen jenseits von Alpha– oder Betastatus vorweisen können. Die information architects binden so nicht nur weniger Ressourcen als CulturedCode, Omni und die vielen anderen Softwareschmieden, die auf Insellösungen bauen, sondern weisen auch den Weg zu einem integrierten Dateisystem online, das von Apple sicher in Zukunft noch deutlich ausgebaut werden muss, da die sich hier bisher abzeichnende Sandbox-Mentalität eher aus Nutzsicht zur Zeit nach hinten losgeht. Sie ist sicher, einfach, portabel, aber leider für alles, was nicht «casual work» ist, völlig unbrauchbar. Fehlendes Dateimanagement wird, je mehr man mit iPad und iPhone »richtig« arbeiten kann, zu einem der größten Mankos von iOS mutieren… ist es, wenn man sich das neue iPhoto anschaut, eigentlich jetzt bereits, der permanente Daten-Roundtrip nervt, das allgegenwärtige «Open in» ist heute schon so anstrengend wie überflüssig. Ein vereinfachter Finder wäre eine gute, überfällige Sache.

Dennoch – iCloud ist in seiner Einfachheit, als unsichtbare Infrastruktur im Hintergrund, der richtige Weg. Zwar hat man vom Desktop aus (noch) keinen direkten Zugriff auf iCloud, was ein großes Manko ist, iAWriter aber relativ mit dem Verschieben von einmal gespeicherten Dateien in den entsprechenden Ordner in der Library elegant umgeht. Auch, dass iCloud anders als Dropbox nicht sichtbar im User-Ordner arbeitet, sondern relativ versteckt ist (wahrscheinlich, um magischer zu wirken), ist für professionellere Anwendungen ein Manko, im Falle von Writer aber eine vernachlässigbare, vielleicht sogar angenehme Sache – es sei denn, man will Text mit einem anderen Programm bearbeiten, dann fangen die Probleme an, weil es eben keinen offenen Zugriff auf die Ressourcen gibt. Was mir für Design und Bildbearbeitung derzeit noch zu hermetisch und user-feindlich scheint (auch wenn Adobe anscheinend ja wiederum selbst an einer Cloud-Lösung arbeitet), macht aber für reine Texte durchaus absolut Sinn, zumal wenn wir vom Schreiben zum Diktieren via Siri kommen.

Hase vs Igel
Als ich vor rund 15 Jahren eine Art Hybridlösung zwischen Computer und TV aus Basis eines ThinClient-Konzeptes im Kopf hatte, dass die verschiedenen Formen interaktiver/multimedialer Daten aus dem Internet über eine dezentrale Serverstruktur bezieht und die so »schwimmenden« Daten absolut mobil und mitnehmest macht, hätte ich nicht erwartet, dass der Weg dorthin so lang sein würde und sich zugleich so viele andere Parameter ändern würden – von soziale Plattformen wie Twitter oder Facebook war damals nur indirekt über Rollenspiel-Plattformen und BulletinBoards ein Vorgeschmack vorhanden, der Kapitalismus war noch rheinisch und nicht neoliberal und Apple war ein Unternehmen auf absteigendem Ast. Mit cloud-Lösungen à la Writer zu arbeiten, Passworte immer dabei zu haben, einen Song auf dem iPhone anzufangen und auf dem MacBook feinzuschleifen – all das fühlt sich insofern weniger revolutionär an, sondern im Kern überfällig. Es bringt uns vor allem einen wichtigen Schritt weiter zur nächsten Entwicklung – der Ablösung des Internets als Ort, in den man sich »begibt« (wie früher durch Modemeinwahl oder heute noch symbolisch durch Browsernutzung) durch einen Informationsäther, in dem man immer schon ist, der vorgelagerten, exoskeletären Charakter hat. Ob das am Ende ein zentraler Anbieter ist – und wer zuckt heute nicht unwillkürlich bei Apples 1984-Spot zusammen, der so ironisch die heutige Wandlung der Rebellen zum Big Brother kommentiert -, ob es viele, wechselnde dezentrale Anbieter sind oder ob wir unsere eigenen Server nutzen werden… Es ist nur noch eine Frage von Speicherplatz und Transferraten, bis unsere Daten im Äther schwimmen und uns wie ein Mantel jederzeit umgeben, immer greifbar sind. Noch ist es ein Unding, dass ein Backup von 4 TB zu Backblaze Wochen in Anspruch nimmt – sind wir hier aber erst einmal bei Stunden angekommen, wird die lokale Festplatte wie die Cassette, wie die CD und der USB-Stick zum toten Medium werden. Es ist verblüffend, dass ein lapidar-minimalistisches Textprogramm wie Writer trotz aller kleineren Mängel einen Vorgeschmack darauf gibt, wie vielversprechend diese Entwicklung sein kann, wenn kreative «Arbeit» nicht mehr durch ein Werkzeug oder spezifische Orte und Zeiten definiert ist, sondern dich immer da erwartet, wo du gerade bist: »Ick bün al dor…«

11. März 2012 17:32 Uhr. Kategorie Technik. Tag , , . Eine Antwort.

Interfaces

hd schellnack

Eine der größten Revolutionen in der Kommunikation mit Computern ist neben der Rolle, die Computer im Alltag zunehmend fast beiläufig und wie selbstverständlich spielen, dass wir nicht mehr mit den gewohnten Interface-Schnittstellen arbeiten, die dem Menschen die Logik einer von der Schreibmaschine abgeleiteten Interaktion aufzwingen, sondern die digitalen Schnittstellen so rapide und grundlegend den menschlichen Sinnen und Werkzeugen entgegen kommen, dass eine Unterscheidung zwischen »analog« und »digital« zunehmend obsolet wirkt. Berührung, Stimme, handschriftliche Zeichen oder sogar Blicke – obwohl die meisten Technologien oft noch rudimentär wirken, hat sich bereits durch diese Ansätze der Umgang mit, vor allem aber das Denken über Software-Interaktionen grundlegend geändert.

Hand
Vor nicht einer Dekade noch komplett in den Kinderschuhen, ist die Steuerung von Software durch Berührung(en) heute längst zu einem Quasi-Standard geworden. Musste man bis vor einigen Jahren noch mit einem Stift auf einer Art Plastikbildschirm herumtippen, Soseins moderne kapazitative Glasdisplays in der Lage, Bewegungen und multiple Berührungspunkte zu deuten, durch Gyroskop und Accelorometer sogar eine Art Anschlagstärke zu ermitteln (etwa bei Garageband). Samsung hat diese Technolgie gerade erst auf der CES 2012 auf Fenstergröße übertragen. Obwohl erst wenige Jahre verfügbar, hat dieser Ansatz zusammen mit fast rahmenlosen, leichten, tragbaren Devices zu einem kompletten Umdenken über Interfaces geführt. Ein Programm ist nicht mehr ein über die Maus-Tastatur-Metapher gesteuerte abstrakte Lösung in einem Monitor, ein Programm simuliert heute das, was es als Lösung anbietet und wird so als Programm unsichtbar. Ein Taschenrechner sieht aus und bedient sich wie ein Taschenrechner, ein Notizbuch sieht aus wie ein echtes Büchlein, beim virtuellen eBook lassen sich die Seiten umblättern als wären sie fast echt, ein DJ-Mischpulte bietet Plattenteller und Mischpultregler und so weiter. Es gibt zwar noch Menüs, aber auch diese wirken eher wie eine Übergangslösung, ansonsten: keine Tastaturkürzel, keine rechten oder doppelten Mausklicks – sondern eine möglichst approximative Simulation, die optisch aber auch von der Bedienung her daran gemessen werden kann, wie »echt« sich die Bedienung anfühlt.

Apple wurde – auch von mir – für die etwas kitschigen Nutzer-Interfaces von iCal und Co. gescholten, aber tatsächlich ist diese Annäherung an das Echte nur konsequent bzw. der sinnvolle erste Schritt zu »Simulacra-Softwares«. Das iPad kann bereits jedes Kleinkind bedienen, weil das unmittelbare Bedienen durch Drücken, Ziehen und andere Gesten mit den dazugehörigen Effekten der Lernfähigkeit der menschlichen Natur entspricht, Cause-and-Effect kennen wir ja auch aus der realen Welt. Angeblich fangen ja die ersten an Tabletts gewöhnten Kleinkinder bereits an, enttäuscht zu reagieren, wen sich echte Bücher eben nicht auf einen Tap hin öffnen oder reale Gegenstände nicht wie virtuelle auf Berührung reagieren und eine Animation starten. Dabei ist das Herumtasten auf einer kalten Glasscheibe sicher nur ein erster Schritt zu berührungssensitiver Kontrolle von Software-Interfaces. So wie es über kurz oder lang unweigerlich 3D-Displays geben wird (und ansatzweise ja bereits gibt), werden wir auch Bildschirme haben, die auf Berührung mit einer Art von Widerstand Feedback geben können und die unterscheiden können zwischen verschiedenen Abständen zum Display (Hover) bzw. auch direkt auf die Stärke des Anschlags. Die jetzt sehr eindimensionale Touch-Fähigkeit wird sich also nach und nach erweitern, bis die Displays nicht nur visuell einen realen Gegenstand simulieren können (und dies mit hochauflösenden Displays zunehmend an der Grenze, an der das menschliche Auge zwischen »echt« und »unecht« nicht mehr unterscheiden kann, d.h. keine Pixelbausteine mehr sichtbar sind), sondern auch haptisch. Nutzen wir einen virtuellen Taschenrechner, wird er nicht nur aussehen und klingen wie »real«, sondern auch die dimensionale Tiefe (3D) haben und sich anfühlen als würden wir auf einem echten Gegenstand Zahlen eingeben, nicht auf der bloßen planen Display-Simulation des Gegenstandes. Die Tasten werden spürbar nachgeben und einen Druckpunkt haben, sie können eventuell durch virtuellen Schweiss und Dreck »rubbelig« werden, sie können sich nach Gummi oder Hartplastik anfühlen. Es wird ein längerer Weg über zahlreiche Zwischenstufen sein, bis man wirklich sensorisch überzeugende Simulationen erzeugen kann, aber es wird sehr wahrscheinlich kommen – wodurch automatisch Abnutzung zu einer Frage der Programmierung wird.

Schon jetzt ist es so, dass ein iPad, iPhone oder Android als »opportunistische« Devices an sich nahezu unsichtbar werden und in einer Art Camouflage alles tut, um sich selbst unsichtbar zu machen und uns zu überzeugen, dass wir einen Photoapparat, ein Buch, eine Klaviatur usw. vor uns haben. Es ist evolutionär nur logisch, dass die Geräte diese Camouflage perfektionieren werden, denn am Markt werden die Anbieter erfolgreich sein, die mit immer neuen Features noch »realistischer« werden. Sowohl Apple als auch Microsoft (mit Windows 8) bauen bereits jetzt auch bei klassischen Desktop-Geräten die Touch-Metapher aus, was bei diesen zunächst hölzern und befremdlich wirkt. Was auf dem Pad sinnfällig ist, wirkt über ein Touchpad nach wie vor zu umständlich – dieser Umstand ist ein Symptom für den Übergang vom »klassischen« Computerparadigma, an dessen spezifische Interface-Metahern wir uns gewöhnt haben, hin zu einem neuen Paradigma, dass die Vorstellung dessen, wie wir mit Computern interagieren, neu definieren wird.


Stimme
Apples »Siri«-Stimmerkennung und -kontrolle ist von Google nicht ohne Grund als revolutionäre Veränderung im Umgang mit Computern (und eben Suchmaschinen) beworben worden. Wo Kommunikation mit dem Computern in den Grenzen der Software (und abgesehen von Abstürzen) bisher weitestgehend sicher und eindeutig war – zieht mit Siri die Fallibilität, das Missverständnis, die Doppeldeutigkeit, eben eine Art »Fuzzyness« ein, die erstmals zu einer Art von Dialog führt, bei der der Computer sogar via verbaler Feedbackschleifen rückfragen kann (und muss!), was der Nutzer denn da eigentlich gemeint haben könnte. Siri ist deshalb natürlich noch – obwohl bereits verblüffend leistungsstark, vor allem in der englischsprachigen Version – eine Art Spielerei, die mehr zu Fehlschlägen und Umwegen als zu einer echten Effizienzsteigerung führt. Es ist nach wie vor ärgerlich, wenn beim Diktat Siri nicht reagiert und man ganze Sätze verliert oder wenn eine einfache SMS vier verschiedene Befehle und Anläufe braucht, bis sie stimmt.

Aber bereits heute gibt es Situationen und Kontexte, in denen Spracheingabe natürlicher und schneller wirkt als der Touchscreen, zumal Siri ohne den Start dezidierter Programme läuft, sondern sich an den User-Bedürfnissen orientiert und die Programme dann selbst auswählt und startet – im Vordergrund steht also was der User will, nicht welches Werkzeug dazu verwendet werden muss. Ich starte also nicht den Browser, um etwas zu suchen, sondern die Software »entscheidet« dies selbst. Diese Art von AI, konsequent zu Ende gedacht, dürfte die Art, wie wir mit Maschinen interagieren, umwälzen und sozusagen renaturalisieren. Nicht nur in dem Sinne, dass wir ganz im Stile von SF-Filmen demnächst Maschinen per Zuruf steuern, sondern weil diese Steuerung wieder analoger (oder zumindest doch simuliert-analoger) wird. Während in den letzten drei bis vier Dekaden wie nie zuvor die visuellen Sinne in den Vordergrund gestellt wurden und wir uns sozusagen evolutionär an diese Verknappung angepasst haben, also Seh-Wesen geworden sind, darf nun der auditive Kanal wieder zum Zuge kommen. Noch ist Siri in der Benutzung dabei eindimensional. Nutze ich die Sprach-Software, wird der visuelle Kanal förmlich abgeschaltet, ich kann nicht auf der visuellen Eingabeebene simultan andere Dinge tun, also etwa einen Text diktieren und gleichzeitig im Web surfen per Touch oder Software per Touch und Stimme kontrollieren, also etwa in Photoshop mit einem Pen oder auf dem Display direkt arbeiten und dabei per Stimmbefehl Werkzeuge auswählen oder Bildeffekte anwenden (»20% mehr Kontrast«). Es ist immer entweder Stummfilm oder Hörspiel. Aber schon jetzt zeichnet sich ab, dass ein stimmbasiertes und dialogorientiertes Interface einen Paradigmenwechsel darstellt, den die Kids, die Siri mit dummen Fragen auszutricksen versuchen (und dabei der Anthropomorphisierung ihrer Hardware auf den Leim gehen, also bereits Interaktionen starten, die sie per Maus/Tastatur niemals so in Betracht ziehen würden), gar nicht verstehen bzw. hinterfragen und der genau deshalb so grandios unsichtbar und sanft stattfindet – ähnlich wie es ja klug war, uns das Cloning als Technologie in Form eines harmlosen Schafes zu präsentieren.

Wir werden erst in einigen Jahren wahrnehmen, wie zentral dieser Shift war. Mit der Stimmkontrolle fällt prinzipiell die Hardware als Interface-Element weg. Es muss nichts mehr »bedient« werden, es gibt keine Tasten zu drücken, keine Zeiger zu bewegen – die Interaktion mit Maschinen wird bei ausgereifter Spracherkennung möglich, ohne ein Werkzeug dafür bedienen und erlernen zu müssen. Der Mensch nähert sich nicht mehr dem Rechner an, sondern umgekehrt.


Schrift
Auf der gleichen Ebene liegt die Entwicklung der Schrifterkennung, die sogar technisch ähnlich gelagert ist, weil hier schnelle Webanbindung und OCR auf leistungsfähigen Servern die ehedem hohen Hardware-Anforderungen für lokale Rechner deutlich gesenkt haben. Ein mobiler Prozessor könnte keine vernünftige Stimm- oder Schriftdechiffrierung leisten, ein kraftvoller Server und ein schnelles Internet aber sehr wohl – die Rechenpower wird einfach ausgelagert. Seit Dekaden ist die eigentlich ja als technische Notlösung zu denkenden QWERTZ-Tastatur der Standard bei der Texteingabe. Ursprünglich entwickelt, um durch eine eben möglichst ungewohnte nicht-alphabetische Tastaturanordung das Schreiben so zu verlangsamen, dass die anfälligen frühen Mechaniken nicht blockieren konnten, haben wir uns so sehr an dieses Layout gewöhnt, dass wir damit aufgrund der Übung oft spürbar schneller und anstrengungsloser schreiben als mit der Hand, so sehr, dass die Handschrift langsam auszusterben droht.

Dennoch kommt die manuelle Eingabe von Schrift und Zeichnungen in den letzten Jahren in eine Art Renaissance – Techniken wie der Livescribe Echo Smartpen oder der Wacom Inkling machen es möglich, unterwegs zu schreiben oder skizzieren, ganz altmodisch auf Papier, und später mit digitalen Daten weiterzuarbeiten. Ob die audiovisuelle «Pencast»-Verknüpfung des Livescribe, der mit einer Kamera auf speziellem Papier die Handschrift aufnimmt und zugleich Ton aufnehmen kann und insofern z.B. für Notizen bei Meetings nahezu ideal ist oder die sich eher an Künstler wendende (und noch nicht ganz ausgereifte) Inkling-Idee eines «Funk»-Stiftes… beide Ansätze können noch nicht hundertprozentig überzeugen. Der Echo-Pen ist klobig und das Schreiben mit der Kugelschreibermine relativ unergonomisch anstrengend, der Inkling zwar kleiner, aber weniger leistungsstark und zudem (noch) relativ unzuverlässig. Dennoch ist es natürlich phantastisch, handschriftliche Notizen, plus einer Aufzeichnung des tatsächlich zeitgleich Gesagten einfach digitalisieren zu können und dabei die Handschrift noch mit einer soliden Trefferquote in MyScript in «getippte» Schrift umwandeln zu können.

Auch hier noch befindet sich die Technik in einer Art Gestationsphase, der man aber bereits anmerkt, welches Potential freigelegt werden kann, wenn ein normaler Schreibakt auf Papier (bzw. auf einem Display, das Papier emuliert) die Tastatur verdrängt. Ein Beispiel für dieses Potential ist die OCR-Engine des Online-Archivs Evernote, das nicht nur die verschiedensten Eingabemedien «schluckt», sondern vor allem auch in jeder Art von Bild, egal ob Photo oder PDF mit handschriftlichen Notizen, nach lesbarem Text sucht und diesen für die Volltextsuche bereitsstellt, also die Welt in Photos «ausliest». Diese serverseitige state-of-the-art-OCR erkennt in Sekunden selbst Worte zuverlässig, die ich selbst kaum noch entziffern kann. Zwar gibt Evernote (unverständlicherweise) bei Handschrift die Ergebnisse nicht als Text aus, sondern nutzt sie wirklich nur für eine Suchfunktion… aber wie gut auch die unlesbarste Schrift hier verlässlich gedeutet wird, zeigt, wie weit die Technik hier ist und wie sehr die Grenzen zwischen Spracheingabe, Tastatur und Stifteingabe hinfällig werden. Wie auch immer wir Informationen eingeben werden – die Devices werden lernen, uns zu verstehen.


Bio-Interfaces
Haptik, Stimme und Schrift sollten bereits genügen, um in den kommenden Jahren die Morphologie der Mensch-Maschine-Kommunikation völlig umzuwälzen. Die Möglichkeiten der kommenden Dekade dürften bereits halten, was SF-Filme noch vor 20 Jahren versprachen, von der Realität des Spielberg-Thrillers «Minority Report» sind wir nicht mehr weit entfernt, zumindest nicht in Sachen Interface-Technologie (Fliegende Autos und Jetpacks lassen nach wie vor auf sich warten.) Bereits jetzt deutet sich aber auch ein weiterer, tiefschürfender Umbruch an, der den gesamten menschlichen Körper zum Interface deklariert. Sanfte Vorläufer sind Waagen und Blutdruck- oder Glucosemessgeräte, die Biodaten an Software übermitteln, Kameras, die mit einem Lächeln ausgelöst werden oder die Gesichter von Freunden automatisch erkennen und für den Autofocus nutzen oder auch Gadgets wie das Jawbone Up, das (wenn auch noch unfassbar primitiv) Bewegungssignale ermitteln und an das iPhone übertragen kann. Auch DSLR-Kameras können ja heute bereits analysieren, wohin wir durch den Sucher blicken und auf das, was unser Auge ansieht, automatisch scharfstellen.

Unsere Vitalzeichen, wie lange wir schlafen, unsere Stimmungen und Ernährung werden über kurz oder lang zunächst nur im Sinne reiner Datensammlung, mittelfristig aber auch als Steuerparameter direkt von Softwares genutzt werden. Dies wahrscheinlich zunächst im spezialisierten Bereich – etwa von Pflegerobotik oder Überwachungssystemen in Krankenhäusern -, sehr bald aber auch im privaten Segment… schon jetzt verkaufen sich Apps und Gagdgets für das Self-Monitoring ausgezeichnet. Was man sich zunächst so einfach denken kann wie Kochbuch-Applikationen, die auf anderenorts gesetzte Diätwerte und -ziele reagieren oder ein iTunes, das auf Stimmungen oder beim Jogging auf das Pulstempo reagiert, öffnet zwei neue Perspektiven… die Nutzung des gesamten Körpers als Interface und die Nutzung des Gehirns im Speziellen. Das Body-Interface kann natürlich bedeuten, dass Software aktiv auf größere Bewegungen, Gesten, Vitalwerte, aber auch auf Geo-Daten und Zeitdaten reagiert (so wie jetzt ja schon Reminder-Softwares aktiv auf GPS-Daten anspringen und uns im Supermarkt die Einkaufsliste zeigen). Der physische Körper und sein Umfeld werden so zu Eingabe-Matritzen der Software. Was der Mensch wo und wann macht, wird zum kybernetischen Steuerimpuls.

Der andere Aspekt, die direkte Schnittstelle ins Gehirn, klingt aus heutiger Sicht nach SF, selbst wenn in der neuronalen Steuerung von Implantaten und Prothesen in den letzten Jahren ebenso sprunghafte Fortschritte gemacht werden wie in der «Geodäsie» der Gehirnfunktionen. Die Idee, direkt aus neuronalen Strömen heraus Software zu steuern bzw. von dieser auch unmittelbar, unter Umgehung anderer Sinnesorgane, Eindrücke vermittelt zu kriegen, mag heute noch abenteuerlich klingen. Aber das, was wir heute Smartphone nennen, war bis vor 50 Jahren auch noch auf Serien wie StarTrek begrenzt (»Navigator«) und dabei deutlich kruder und begrenzter als die heutige Realität, die jedermann frei zugänglich ist. Umgekehrt waren in den 60er Jahren Körpermoddings, die heute für jeden Teenager zum Alltag gehören, undenkbar. Wer hätte zu Zeiten von Truman oder selbst Kennedy geglaubt, in welchem Maße Piercings, Tattoos und anderen Selbstverstümmelungsstrategien reguläre, ja fast langweilige Modephänmene werden würden – wer hätte zu Zeiten von »Mad Men« voraussehen wollen, dass es heute einen Boom zur elektrische Zigarette geben würde? Will man da heute wirklich noch ernsthaft bezweifeln, dass Google Translation irgendwann so effektiv sein wird, dass wir uns in Echtzeit grob in fremden Sprachen werden unterhalten können – per Spracherkennung, serverbasierter Übersetzung und Sprachausgabe? Marshall McLuhans 1969er Vision einer telepathischen Welt, in der – über das hochraffinierte Werkzeug Computer, das alle anderen kruderen Werkzeuge überschreibt – ein «universales Verständnis» möglich wird, ist zum Greifen nahe.


Der siebte Sinn
Das Interessante an all diesen Entwicklungen ist, dass sie sich dem Menschen zuneigen. Anstatt uns seltsame krude Werkzeuge aufzuzwingen, nähert sich Maschine und Software immer mehr unseren ureigentlichen Kommunikationswerkzeugen an. Tastatur und Maus weichen Gestik, Handschrift, Stimme und Auge, die Lernkurve für die »Steuerung« von Software wird immer flacher, ähnelt immer mehr biologischen Prozessen. Die Maschinen werden biomorph. Man darf diese Entwicklung durchaus kritisch sehen, vor allem wenn sie primär gewinnorientiert und ohne ethische Kontrolle abläuft, wird sie aber kaum mehr zurückdrehen können. Der Computer – und noch viel mehr der Äther des Web – sind Büchsen der Pandora, die nur vielleicht ein verheerender Krieg oder eine andere Katastrophe kurzfristig wieder verschließen würde. Positiv gesehen aber fallen hierdurch technologische Krücken weg, die wir seit Gutenberg benutzen, um umständlich eine Brücke zwischen Massenkommunikation und individuellen Ausdruckspotentialen zu schlagen.

Phoneme, Alphabet, Druck, selbst Schallplatte und Video sind nur Faustkeile… und je fortschrittlicher die biomorphen Interfaces werden, um so einfacher und unkomplizierter wird unsere Kommunikation untereinander und mit Maschinen werden. Der Clou dabei ist, dass das Medium sich dabei auflöst. Der Rechner als große Konvergenzmaschine, der sämtliche medialen Ausdrucksformen binär zerhäckselt und völlig neu zusammenstückeln kann, dem es denkbar egal ist, ob er nun Musik oder Bilder, Schrift oder Töne in 0 und 1 auflöst, wird in den kommenden Jahren selbst unsichtbar werden. Bereits das iPad bricht mit der Metapher des »Computers«, ja des technischen Gerätes schlechthin. Abgesehen von einem in Zukunft wahrscheinlich zusätzlich verschwindenden Minimum an Knöpfen ist es als technisches Utensil nicht zu erkennen – die Eigenbedienung ist ein Minimum, das gerät verwandelt sich durch die Software in was immer auf dem Bildschirm an sich gezeigt wird… wobei das Wort «Bildschirm» schon fast in die Irre führt, wenn das ganze Gerät nur noch ein Screen ist.

Die Frage, inwieweit Computer und Web noch als solche wahrnehmbar sind, wenn es nicht einmal mehr den Bildschirm gibt, sondern osmotische oder sogar direkte neuronale Verbindungen für selbsttätige Steuerungsmechanismen sorgen, die intuitiv, instinktiv genutzt werden können, stellt sich kaum: Was heute noch «externe» Medien sind, würde tatsächlich zur symbiotischen Sinneserweiterung, zu einem siebten, achten, neunten Sinn. Wohin sich das entwickelt sieht man schon heute, wenn Leute bei Gesprächen Fakten kurz googlen, mitten in einem Film mit IMDB nach Trivia suchen oder oft zwar durchaus in der echten Welt anwesend, aber simultan auch in Facebook oder Twitter oder Instagram aktiv sind. Diese Form von Multitasking wird ein Standard werden, eine Art Layer, das sich über die normale Kommunikation legt und durch den Wegfall klassischer Interface-Hardware quasi unsichtbar wird, die Form eines internen Monologs annehmen kann.

Wir sind bereits heute permanent online – in Zukunft kann das aber ein Teil der tatsächlichen Wahrnehmung von Welt sein, was heute grobmotorisch als Augmented Reality vermarktet wird. Konsequent zu Ende gedacht, wäre ein derartige nahtlose Verbindung mit Hard- und Software eine Erweiterung unserer mentalen Möglichkeiten, für die wir Menschen sozusagen Anlauf und Training brauchen, weil unser Gehirn sich den Möglichkeiten wird anpassen müssen (so wie es ja bereits jetzt langsam notgedrungen neue Selegierungsstrategien gegen den Zerstreuungsmechanismus einer vernetzten Welt entwickelt, wobei uns wieder Software gegen die Gefahren anderer Software zur Seite springt…). Diese Sinneserweiterung wird auf eine Art begrenzte elektronische Telepathie hinauslaufen – du wirst ohne Bildschirm, ohne Tastatur, ohne »Gerät« in irgendeinem Sinne wissen, ob es Freunden eine halbe Welt entfernt gerade gut oder schlecht geht. Und es läuft auf eine sanfte Allwissenheit hinaus – weil der Wissensschatz des Webs nicht mehr per Suchmaschine erarbeitet werden muss, sondern ebenso neural einfach »da« ist wie andere Informationen und Erinnerungen ja auch. (Spannend und erschreckend wird die Frage, wie Werbung dann wohl funktioniert…)

Obwohl ich nicht sicher bin, inwieweit unsere Generation solche biotechnologischen Verschmelzungen noch miterleben wird, zeichnen sich solche Lösungen logisch ab. Zum einen werden Prozessoren, wenn sie weiter hohe Leistungssprünge bringen wollen, irgendwann biologisch funktionieren müssen, zum anderen stellen Interfaces wie Displays und Tastaturen die größte Hürde für den Verkleinerungstrend von Elektronik dar. Die Prozessoren und Speicher selbst sind längst winzig – nur der Mensch braucht eine gewissen Bildschirmgröße und seinem Körper entsprechend große Eingabewerkzeuge, um mit dem Rechner in Dialog treten zu können. Die Vorstellung, dass Hersteller früher oder später den gordischen Knoten durchschlagen und weitestgehend auf Hardware verzichten werden, ist also naheliegend. Die Vorstellung davon, wie diese Art von direkter Wahrnehmung von softwarebasierten Angeboten als «Sinn» sich anfühlen mag, wie es sein könnte, wenn Informationen, aber auch Spiele, Musik, Filme usw. direkt als «Schicht» über unserer normalen Wahrnehmung liegen oder mit dieser unzertrennbar verwoben sind, kann man sich bestenfalls als psychedelischen Trip vorstellen. Ich habe kaum Zweifel daran, dass wir uns als Menschen an diese induzierten zusätzlichen Sinne gewöhnen werden – wie wir uns an andere mediale Dinge auch gewöhnt haben, die zwei drei Generationen vorher die Menschen in den Wahnsinn getrieben hätte. Die physische Härte moderner Metal- oder Drum’n’Bass-Musik, die extrem schnellen Schnitte in Musikvideos, die surreale Unwirklichkeit von 3D-Filmen, die Absurdität der meisten Werbefilme, die generelle Schnelligkeit der Zivilisation heute – all das dürfte einen Besucher aus den 1920er Jahren zur Verzweiflung bringen, ist für uns aber Alltag. Wer weiß also, woran sich unsere Nachfahren anpassen werden können?

Unsere Generation wird den langen – und sicher spannenden – Weg machen weg von Computern als «externe» Arbeitsgeräte hin zu alltäglichen Begleitern. Aus schrankwandgroßen besseren Taschenrechnern sind in nicht einmal 50 Jahren taschenrechnergroße exzellente Multifunktionsgeräte geworden, die die meisten bisherigen Medienangebote nahtlos in sich vereinen. Geräte, deren Evolution und (Markt-)Überleben davon abhängt, sich für ihre Nutzer unersetzbar zu machen. Unsere Generation wird entscheidend miterleben, wie dieses Eindringen von Web und Software in den Alltag unser Verhalten und unseren Umgang miteinander entscheidend verändern muss. Unser Denken über Copyright, Verhaltenskodexe, wirtschaftliche Modelle, Beziehungsideale, Berufswege, Mode, Kunst, Freundschaft, Kommunikation, Wahrheit – nichts wird dieser so unscheinbar anfangenden Revolution gewachsen sein. Wir stecken mittendrin und haben die Möglichkeit (und wahrscheinlich die Pflicht), in irgendeiner Form diese Entwicklung mit zu formen… zwischen Hypermarken, die den Markt dominieren und einer Politik, die reflexartig solchen Großunternehmen zuzuarbeiten gewohnt ist, ohne die man allerdings auch die Annehmlichkeiten moderner Technik nicht hätte, so dass nie ganz klar ist, ob man Google, Apple und Co nun lieben oder verfluchen sollte. Der Weg zu den neuen Interfaces wird voller wunderbarer Paradoxien und Irrläufer sein.
Freuen wir uns drauf.

19. Januar 2012 17:46 Uhr. Kategorie Technik. Tag , , , , , , , . Eine Antwort.

Scan auf iPad und iPhone

hd schellnack

Für den Fujitsu Snapscan S1100 gibt es ein interessantes Update, das ein direktes Senden von Scans, die mit dem Gerät gemacht werden, auf die ScanSnap-App erlaubt. Ehrlich gesagt würde ich so etwas heute über Fotostream lösen, aber die Entwicklung zeigt, das Fujitsu es mit der Weiterentwicklung der ScanSnap-Umgebung bisher relativ ernst meint. Mehr gibt es hier und hier. Dank an Heidi Schall für den Tipp.

14. November 2011 12:58 Uhr. Kategorie Technik. Tag , , . Keine Antwort.

Muse

hd schellnack

Wer hätte gedacht, dass Adobe noch einmal für Aufregung sorgen würde? Anstatt sich stillschweigend in den Niedergang von Flash zu fügen, setzt Adobe mit der Beta von Muse auf eine Art Nachfolgemodell zu Flash und Dreamweaver und präsentiert in der 0.8er Beta-Version eine Art Indesign fürs Internet. Was man sicher als richtigen Schritt in die falsche Richtung bezeichnen kann – es sollte inzwischen klar sein, dass der Weg zu einer echten WYSIWYG-Webentwicklungssoftware lang bis eventuell unmöglich ist, und der Weg für Menschen, die schnell und preiswert eine Homepage haben wollen wahrscheinlich eher über modifizierbare Von-der-Stange-Themes à la WordPress oder Squarespace führen dürfte. Tatsächlich sehen ja auch immer mehr von Agenturen gelieferte Sites heute nicht so viel anders aus als die Standards von CMS-Theme-Anbietern, hier ein Nivo-Slider, dort ein Caroussel, hier etwas FluidGrid – selbst gut gemachte Sites bauen heute auf Jquery-Standardelementen auf und folgen oft, bewusst oder unbewusst, einer Blog-artigen Logik. Und in diesem Kontext ist das komplette Design einer Website mit einer Desktop-Software fast aufwendiger als das Zusammensetzen und Individualisieren bestehender Bausteine – es scheint also hier nicht darum gehen zu können, dafür ist die Software auch zu komplex, für den Tante-Emma-Laden eine Low-Budget-Weblösung anzubieten. Für professionelle Developer aber dürfte Muse auch nichts sein, die coden zu Recht von Hand und werden wohl kaum eine Lösung akzeptieren, die zwar besseren Code als Dreamweaver und iWeb usw abzusondern scheint, aber natürlich lange keinen sauberen perfekt polierten Programmierer-Ansatz ersetzen kann. Aber für wen taugt Muse dann eigentlich?

Für die Designer, zumindest in der Skizzenphase. Ich glaube keine Sekunde, dass man mit Muse (oder wie immer es final heißen mag) ernsthaft eine saubere Website wird bauen können. Mag sein, dass man einen Low-End-Schnellschuß damit machen kann oder eine Platzhalter-Site. Mag sein, wenn Adobe eine vernünftige CMS-Einbindung liefern kann (die es bisher nicht gibt) und an den Details arbeitet, dass es auch im Entwicklungs-Workflow einen Raum für Muse gibt. Bisher sehe ich den Nutzen eher darin, Dinge, die man bisher in Photoshop oder Indesign (oder sogar iWeb, Keynote oder Flash) gemacht hat, hier solider zu vereinen – halbwegs lauffähige Previews/Modelle für Pitches, Usability-Experimente, Prototyping und das reine Screendesign. Ob am Ende ein Entwickler den dabei entstehenden Code vielleicht sogar weiter verwerten kann (was ja nicht dumm wäre), ist dabei sowas zweitrangig. Aber ein semibrauchbares Modell einer Idee online zeigen zu können und das nicht gar so unsagbar schlecht wie mit PDF oder iWeb-HTML, wäre schon ein Schritt nach vorne und sei 180 Euro im Jahr gern wert. Muse entpuppt sich also, bei allen bisherigen Schwächen, als brauchbarer Skizzenblock fürs Webdesign. Das Adobe einige wichtige Basics nicht verstanden hat – etwa die Trennung von Content und Form oder die Endgeräte-unabhängige Fluidität von Layouts durch Browser- und Medienabfragen, sticht ins Auge. Muse überträgt Print-Prinzipien ins Web, wo sie nicht hingehören. Dennoch macht es in Entwicklungsphasen durch recht einfache Werkzeuge und die Einbindung grundlegender JQuery-Tools schon mehr möglich als jedes andere WYSIWYG-Tool bisher und schafft so eine Brücke zum Programmierer, vor allem aber auch einen Weg – und das ist etwa bei uns zunehmend wichtig – komplexere Konzepte auch zumindest semi-funktional vorzustellen, ohne gleich hohe Entwicklungskosten zu haben. Wo man bei Indesign nie wirklich eine konkrete Vorstellung hatte, wie Schriftgrößen und Bilder real auf diversen Geräten wirken, hat man hier wenigstens eine grobe Vorstellung, wie es online aussehen wird – und zugleich aber deutlich mehr Möglichkeiten als bei iWeb, und zugleich weniger abstruse 90er-Jahre-HTML-Ansätze als mit Dreamweaver. Irgendwo zwischen Muse und Hype liegt ein Ansatz, mit dem auch Non-Coder zumindest eine Idee davon, wie sie sich eine Site vorstellen, zunächst gestalten und präsentieren können, ohne sich gleich in den Code-Dschungel zu begeben. Aber warum eigentlich nicht?

Weil es im Webdesign in der Programmierung nur zwei Stufen gibt derzeit – teuer und individuell oder preiswert und (relativ) ready-made, wobei ich letzteres inzwischen sogar bei High-End-Sites finde. Ich finde aber, so sehr einheitliche Standards ihren Sinn haben, dass hierunter die Vielfalt im Web und damit die Weiterentwicklung des Mediums leidet. Zwar bin ich ja der Meinung, das «Websites» wie wir sie heute kennen in 10 oder 20 Jahren wahrscheinlich völlig obsolet sein werden, aber bis dahin ist es etwas schade, wenn zunehmend alles nach CMS-Templates aussieht. Man mag über Flash denken, was man mag – aber in den Heydays der Flash-Sites gab es unter dem ganzen visuellen Müll auch einige Sites, die mit den Möglichkeiten der Software wunderbar verspielte und in Sachen Interface «andere» Ideen realisieren konnten. Man denke nur an die Experimente von Yugop mit Flash, an die frühen Group94 und die Möglichkeiten, die eine derart graphische Ausrichtung von Sites bis heute im Hinblick auf Interaktivität mit sich bringt. Heute wirkt alles dagegen etwas nüchtern, schnelle Information ist wichtig – im Grunde braucht man die Site an sich kaum noch, man kann sich Text und Bilder auch via RSS oder Readability/Safari Reader auslesen und auf das Design drumherum verzichten. Die selbsternannten Minimalisten mag diese Entwicklung freuen – aber sie hat das Web weniger explorativ, weniger vernetzt, weniger immersiv gemacht.

Was viel damit zu tun hat, dass Webdesign heute zu wenig von Designern kommt. Ich werde das Gefühl nicht los, die Möglichkeiten von HTML und bestehende Lösungen bestimmen, wie Sites aussehen – unabhängig von den tatsächlichen Bedürfnissen und kommunikativen Anliegen der Auftraggeber. Da geht eine gigantische Standardisierungswelle, bei der am Ende Modemarke wie Museum nach «Typo3» oder «Joomla» aussehen, nicht nach Modemarke oder Kunst. Es geht ja auch mit HTML kaum anders, Java hin oder her, wenn man mit den Browsern nicht havarieren will und die Mobil-Prozessoren nicht durchgrillen.

Die Hoffnung bei Muse – und ich bin da sicherlich viel zu optimistisch – wäre also vielleicht, dass Gestalter ohne Rücksicht auf die Möglichkeiten von CM-Systemen, ohne auf etablierte JQuery-Bibliotheken zurückzugreifen, einfach visuell aufregend gestalten und das Design mit seinen Wünschen und Lösungen sich wieder vor das Coding mit seinen (Un)Möglichkeiten und Begrenzungen stellt. Auch wenn ich der Meinung bin, dass nahezu jeder, der heute Design studiert, programmieren können müsste, weil die Entwicklung nahtlos in diese Richtung geht, ist das wichtige an einer Web-Lösung immer noch die dahinterstehende Idee, die kommunikative Strategie. Und je besser die Designer diese entwickeln und dem Auftraggeber (und später den Programmierern) kommunizieren können, umso besser. Muse mag dabei ein primitives Werkzeug sein – aber es ist immer noch besser als andere bisherige Lösungen. Es fehlt an allen Ecken und Enden – und sei es nur eine integrierte Upload/FTP-Lösung – aber für Wireframes, Prototypen und und und kann es ein gutes Werkzeug sein – wenn auch ein sauberes CSS wahrscheinlich allemal schneller sein dürfte für die, die es händisch können. Dennoch glaube ich gerade für die Entwicklungsphase, das alles gut ist, was das Denken vom Code befreit und auf die Bedienung, die Gestaltung, und vor allem auf schnelles, experimentelles Design zurückführt. Insofern ist Muse vielleicht gar nicht so sehr für die Großmutter, die sich eine kleine Website machen will, gedacht, sondern wird sich als Skizzenblock erweisen, so wie sich in den letzten Jahren Keynote oder das absolut alberne iWeb als solide Lösung in der Ideenfindungsphase erwiesen haben, wenn es darum geht, ein Konzept zu erstellen und noch nicht über die Grenzen von Java nachzudenken.

Zugleich zeigt Adobe aber, wie weit die Marke sich vom Markt entfernt hat. Mag das «Subscription»-Modell noch vor einer Dekade mutig gewesen sein, wirkt es derzeit etwas old-fashioned. So wie bereits bei der Creative Suite ein fast atemberaubend dreister Mietpreis im Raum steht, scheint auch hier weniger der Preis ein Thema zu sein (180 € ist ja recht fair) als vielmehr die enge Anbindung an Adobe und das «Nicht-Besitzen» von Software veraltet zu sein. Warum nicht einfach für 299 € in den AppStore damit und fertig – und bei der Gelegenheit gleich die nächste CreativeSuite auch auf diesen Weg schicken. Angefangen von der Air-Umgebung über das Abo-Modell bis zu der Frage, ob außer Business Catalyst noch andere CMS/Hosting-Lösungen integrierbar sein werden – oder warum Adobe nicht aus Indesign, Edge, Muse, Dreamweaver und all diesen Einzellösungen eine überzeugende Gesamstruktur entwickeln kann -, Muse ist nichts, worüber ein Web-Dev seinen Schlaf verlieren sollte. Ich sehe keine Low-Budget-Sites, die damit überzeugend entstehen können, das System ist (noch) viel zu statisch, ohne Datenbank-Anbindung ist doch heute fast keine wirkliche Homepage mehr denkbar. Da gibt es andere Lösungen, die eher in diese Richtung gehen und die Brücke zwischen CMS und Enduser schließen, indem in das Backend Layout-Möglichkeiten integriert werden.

Was Muse aber leisten kann, ist die Non-Coder-Designer aus dem Printbereich näher an die Programmierer heranzubringen, eine Lücke zu schließen, bis diese sich durch die Weiterentwicklung des Designs von selbst schließt oder die Frage durch die weitere Evolution des Webs ohnehin überflüssig wird. Nachdem Adobe einen ähnlichen Konvergenz-Ansatz bereits bei Rome erst entwickelt und dann verworfen hat, darf man gespannt sein, ob Muse eine Chance am Markt hat.

16. August 2011 18:08 Uhr. Kategorie Technik. Tag , . Eine Antwort.

Schreiben auf dem iPad: Bamboo Paper

hd schellnack

Zum Bamboo Stylus Stift für das iPad bringt Wacom eine passende Notizbuch-App heraus – Bamboo Paper – die bis Ende des Monats noch gratis verfügbar ist. Unter den vielen Notizbuch-Applikationen für das iPad und für eine «Corporate App» macht Bamboo Paper überraschend viel richtig, vor allem verglichen mit der sehr enttäuschenden und lang erwarteten Moleskine-App.

Paper ist relativ einfach gehalten, überzeugt aber zugleich mit einem durchdachten Konzept. Die App bietet die gesamte Fläche des iPad als Notiz-Buch, wobei die Schrift nicht wie bei vielen anderen Anwendungen «vektorisiert» wird – das Schriftbild ist nicht nur mit dem BambooStylus, sondern auch etwa mit dem AluPen so flüssig und «natürlich» wie bei Noteshelf und Penultimate, wobei gerade letztere App Bamboo in vieler Hinsicht so ähnelt, das deutlich wird, wo sich Wacom vielleicht auch etwas Inspiration geholt hat. Vorteil gegenüber Penultimate ist aber die elegantere, fast nahtlose Integration der Werkzeuge in das «Blatt», so dass man gefühlt mehr Raum zum Schreiben hat.

Die grundlegenden Funktionen – Stifte in drei verschiedenen Stärken und sechs verschiedenen Farben, Radiergummi, Löschen der ganzen Seite und «Lesezeichen» – ähneln ebenfalls am ehesten Penultimate. Noteshelf liefert hier einen deutlich größeren Funktionsumfang schon bei den Malwerkzeugen – mehr Farben, 21 Stufen «Stiiftgrößen», Bild-Import und Emoji-artige Icons geben dem Schreibenden mehr Freiheit bei der Arbeit mit seinem Text.

Auch bei sonstigen Features schwächelt Wacom, wieder vor allem gemessen an Noteshelf. Noteshelf bietet Evernote- und Dropbox-Integration, kann JPG als auch PDF exportieren, optional mit und ohne «Papier» und Seitenzahlen. Bamboo hingegen exportiert einzelne Seiten als JPG (768×1024) oder das Notizbuch als PDF, jeweils mit «Papier» als Hintergrund. Die Auflösung ist bei allen Apps nicht ideal – besser wäre eine feinere Auflösung, aber hier hat bisher keine Notebook-App einen Vorsprung, wahrscheinlich, weil eine höhere Auflösung den ohnehin spürbaren Latenz-Faktor beim Schreiben erhöhen würde. Wobei Bamboo einen Hauch langsamer zu sein scheint als Noteshelf, weniger schnell hinterherkommt. Dropbox und vor allem Evernote-Sync sind zudem grundlegende Funktionen eines Notizbuchs, da hier das automatische Sammeln von Notizen in einem dafür perfekt geeignetem System ermöglicht wird. So kann man bei einem Meeting mitschreiben, kurz «synchen» und hat die Notizen bereits im richtigen Ordner im Bürorechner, wenn man dort ankommt – komfortabler und sicherer geht es kaum.

Vorteil von Penultimate und Noteshelf ist auch, dass man mehrere Notizbücher verwalten kann. Bamboo merkt man an, dass dieses Feature geplant ist – anderenfalls würden verschiedene Farben für die «Umschläge» und ein Papierkorb im Interfacedesign keinen Sinn machen. Aber die Einschränkung, derzeit nur ein Buch nutzen zu können, ist wie das Fehlen von Synchronisation und Bildimport ein großes Argument gegen Bamboo Paper.

Wo die App dennoch punktet ist das Design – sie ist wunderbar reduziert gestaltet, und trotz der wenigen Optionen scheint beim Schreiben ad hoc nichts zu fehlen. Der Verzicht auf den imitierten Buch-Look im Interface macht das iPad selbst zum Notizblock – und so einfach fühlt es sich definitiv richtig und am besten an. Die dezenten blauen Linien und Karos sind zum Schreiben ideal – und die «Hefte» in der Dokumente-Übersicht sind ästhetisch überzeugend gemacht. Hier ist Penultimate mit seinen braunen «Schreibheften» sehr nahe dran, aber gerade in der Reduzierung und Vereinfachung überzeugt Bamboo schon auf den ersten Blick, verschwendet weniger Platz und gibt den Nutzer die maximale Schreibfläche – definitiv der richtige Ansatz.

Auch der Verzicht auf den nostalgischen «Sepia-Papier-Look» zugunsten einer klaren weißen Fläche, die weniger «retro» ist, gefällt. Das schlimmste Interface weist Noteshelf auf, wo vom Icon bis zur Umschlaggestaltung der «Notizbücher» einfach alles ein bisschen häßlich geraten ist. Noteshelf bietet eine wahre Flut von Vorlagen und Optionen für Buchcover und Seiten, aber nicht eine davon kann gestalterisch überzeugen, keine macht wirklich «Spaß». Ich kann mir fast vorstellen, trotz fehlender Features mehr mit Bamboo zu arbeiten, weil es rein visuell und ästhetisch mehr angenehmer ist, diese Applikation zu benutzen. Es sind nicht immer nur die reinen Funktionen – man sollte als App-Entwickler das Screen-Design und den emotionalen Aspekt der User Experience niemals unterschätzen. Noteshelf ist funktional ungeschlagen, aber nahezu völlig ohne Flair. Bamboo will seltsamerweise deutlich weniger und überzeugt genau deshalb mehr.

Ein zweites, wenn noch unausgereiftes Plus von Bamboo ist der Zoom. Wo Noteshelf eine «Lupe» bietet, die den unteren Bildschirmbereich kompliziert zur Vergrößerung des oberen macht, zoomt die Wacom-App mit einem Zwei-Finger-Pinch die Seite größer oder kleiner. Hier gibt es das Problem, das man dabei versehentlich oft «malt» anstatt zu zoomen, aber der Ansatz fühlt sich insgesamt dennoch intuitiver und natürlicher an. Spätestens mit dem Retina-Display des iPad3 sollte man bei dieser Zoom-Funktion aber eine höhere Auflösung der Notizen andenken, die Pixel sind im Zoom sehr deutlich sichtbar. Abgesehen davon erlaubt der Zoom, trotz des «klobigeren» Schreibens auf dem iPad-Display, im Endergebnis eine lesbare und realistisch «feine» Schrift hinzubekommen. Im Zoom kann man mit zwei Fingern das Papier natürlich weiterbewegen und ein längeres Drücken an beliebiger Stelle lässt die Schreibwerkzeug-Optionen erscheinen, so dass ein ungestörter Workflow möglich ist. Die noch relativ naive Zoom-Umsetzung sorgt allerdings schon dafür, dass man (zu) oft das Radiergummi verwenden muss, um ungewollte Striche zu löschen.

Wenig störend fiel ein weiteres fehlendes Feature auf – Penultimate und Noteshelf haben eine Art «Wrist Protection», die verhindert, dass der Handballen auf der Glasfläche beim Schreiben stört. Wacom hat dieses Feature nicht, dennoch funktioniert die App recht sauber – der Handballen verhindert nur recht selten das Schreiben als solches, macht aber selbst keinerlei «Malstriche». Da die Wrist-Protection auch an sich oft seltsame Nebeneffekte hat und sogar Blattbereiche sperrt, ist ihr Fehlen kein großer Verlust und man gewöhnt sich schnell daran, die Hand nicht auf dem Glas ruhen zu lassen.

Im Resultat überrascht Wacoms Bamboo Paper als Free-App mit einem sehr gelungenen, reduzierten Ansatz, dem es an einigen Features fehlt, die der Hersteller hoffentlich ausbaut. Das perfekte Notizbuch für handschriftliche Mitschrift und Zeichnungen, das intuitiv und natürlich funktioniert wie ein Stift und Papier, aber alle digitalen Vorteile mit sich bringt, gibt es aber auch hiermit (immer) noch nicht, das Rennen um die «perfekte» App, die Ästhetik und Funktionalität zu einem überzeugenden Design verbindet, ist noch offen. Vielleicht kommt das aber auch erst, wenn Apple einsieht, dass eine Stifteingabe für das iPad kein «Fehler» ist, sondern eine wertvolle Ergänzung des Gerätes, und eine entsprechende Hardware/Software-Lösung vorstellt, die dem Feeling eines echten Wacom-Tablett näher kommt.

19. Juni 2011 14:23 Uhr. Kategorie Technik. Tag , , . Keine Antwort.

Langsame Revolution

hd schellnack

Ein Jahr nachdem das iPad den Auftakt zu einer globalen neuen Digitalisierungswelle bei «Print»-Medien ausgelöst hat, reibe ich mich als Leser (aber auch als Designer) immer wieder an seltsamen und frustrierenden Elementen dieses Umbruchs, die einzeln jeweils sicher erklärbar sind, kollektiv aber den Buchmarkt und die Anbieter von Hard- und Software vor wichtige Herausforderungen stellen. Ein kritischer (und sehr subjektiver) Blick auf den Stand der Dinge im Bereich des e-Lesens:

Hardware. Ich hatte letztens bei einem Besuch auf dem mediacampus frankfurt die Chance, mehrere aktuelle eReader in der Hand zu halten. Als iPad-Nutzer eine geradezu schockierende Erfahrung. Unhandlich (mit Ausnahme des Thalia-Readers, der ein sehr süßes Format hat, für «Buch» allerdings einen Tick zu klein ist), ein entsetzlich billiges Aldi-Plastik-Feeling, langsam, medial unflexibel, reines Schwarzweiß… da kommt wenig Freude auf. Das Buch ist ein sehr haptisches Medium und Buchleser häufig Menschen mit einem Gespür für schöne Gegenstände und gute Dinge. Das sollte man beim Design von Endgeräten durchweg im Kopf haben und nicht taiwanesischen Plastikschrott anbieten. Je näher der Reader an das Gefühl eines «Hardcovers» herankommt – und je näher auch die digitalen Buchdateien dies emulieren, nicht durch sepia-Hintergründe, sondern im Handling – desto erfolgreicher wird sich das Angebot durchsetzen. Ich denke auch, niemand hat wirklich Lust, einen längeren Text grau auf grau zu lesen? Die Schrift mag ja «scharf» sein bei vielen Readern, aber sie wirkt pixelig und hat in jeder Hinsicht die Anmutung einer Kinder-«Zaubertafel». Die Bedienung der Software, die sinnfrei wirkenden Hardware-Tasten und viele andere Details der Reader erinnern an die Frühzeit des Computers. Ästhetisch ist das iPad somit fast singulär der einzig annehmbare Weg derzeit. Das iPad aber ist noch zu dunkel in der Sonne, zu hell in der Nacht, reizt die Augen zu sehr beim Lesen als aktives Display gegenüber dem «passiven» Papier und braucht dringend eine höhere Auflösung (iPad3 wird Retina-Display haben). Richtig perfekt ist derzeit noch keine Lösung, Jan Tschichold würde an all diesen Geräten verzweifeln. Das iPad ist noch am nächsten dran und trotzdem einige Jahre von «perfekt» entfernt. Seltsamerweise tut dem Gerät auch die Verschlankung von iPad zu iPad2 nicht wirklich gut. Obwohl für die meisten anderen Anwendungen ein Fortschritt, ist das Pad als Buch jetzt zu surreal dünn, zu scharfkantig, zu sehr Glasscheibe. Ein leichteres, aber voluminöseres Gerät wäre an sich überzeugender. Hier haben wir noch einige schwierige Jahre vor uns – in Sachen Interface ist kein Reader dem «echten» Buch gewachsen. Was zugleich auch heißt, das für andere Firmen als Apple noch Raum wäre, ein markttaugliches Angebot zu konzeptionieren – die begeisterte Reaktion auf den dann leider nie realisierten Courier-Entwurf von Microsoft zeigt das sehr deutlich. Monopole sind nie gut und es wäre erfreulich, wenn ein Hardware-Anbieter sich des Themas Digitales Lesen und Schreiben ganz neu und offen stellen würde.

Kaufen. Es ist immer noch eine Art Horrortrip, spontan ein eBook zu kaufen. Es wirkt fast so, als solle man in semi-legale Graubereiche hinein gezwungen werden, wenn man als Nutzer auch nur den geringsten Anspruch stellt – wie etwa den Wunsch, ein gekauftes Buch auf dem eigenen Lesegerät nutzen zu können. Als deutscher Nutzer ist es schwierig, legal ein amerikanisches Buch – das ich «auf Papier» bei Amazon problemlos binnen 24 Stunden erhalte – als ePub zu kaufen. In Apples iBook-Store gibt es ofiziell keine 50 englischen Bücher… verdeckt sind es einige mehr, aber das Angebot ist erschütternd schlecht. Und auch bei den deutschen Büchern ist die Auswahl deutlich zu klein – Apple hat hier viel zu wenig kleine Verlage im Programm, die Bücher erscheinen deutlich nach den Print-Angeboten, die Vorteile einer digitalen Buchhandlung (Große Auswahl, da keine Lagerfläche, niedrige Preise und hohe Geschwindigkeit) kommen nicht zum Zuge.
Das zugleich die wachsende Zahl der Websites, Foren und Blogs, auf denen Bücher illegal zum Download angeboten werden, explodiert, zeugt von großer Nachfrage, die die Verlage und legalen Anbieter einfach nicht befriedigen. Es ist wie mit dem iPhone und dem Jailbreak – je mehr Apple mit jeder iOS-Fassung ganz einfache Wünsche der Nutzer befriedigt, desto weniger werden diese zu aufwendigen Tricks greifen, um die Funktionalität ihrer Geräte auszureizen. Je einfacher man also digitale Bücher kaufen kann, umso weniger Chancen haben die illegalen Quellen.
Bei Comics, einem fluideren, überschaubaren aber der Buchbranche nicht unähnlichen und insofern als Erfahrungsfeld besonders spannenden Bereich, zeigt sich das besonders drastisch. Der interessierte Leser bekommt nahezu jedes Mainstream-US-Comic am gleichen Tag von ungezählten internationalen und illegalen Quellen in perfekter Qualität in zwei Standard-Reader-Formaten als One-Click-Lösung. D.h. die illegale Vertriebslösung ist an Komfort – abgesehen von der langen Suche und Werbeeinblendungen natürlich – kaum zu überbieten im Hinblick auf das Endergebnis, weist aber einen ungemütlichen Weg dorthin auf, der zudem den Makel des Illegalen aufweist. Kein Konsument von Büchern, Musik, Filmen oder eben Comics will, dass die Macher leer ausgehen. Die Verlage aber – die die Direktmarktstruktur schützen und vor den in den USA durchaus recht mächtigen Retailern Angst haben – setzen auf proprietäre Lösungen, die geradezu bizarr inpraktikabel sind. Selbst der Vorstoß von DC, ab September monatlich 52 Hefte day&date, also am gleichen Tag wie die Printversion, digital zu veröffentlichen, ist nur ein halbherziger Schritt – wenn die Formate nur in geschlossenen Systemen verfügbar sind, wird es wenig nutzen, zumal der Preis bei Erscheinen auf Höhe der Printausgabe liegt. Das schützt die Händler, schadet aber den Verlagen und damit den Autoren und Kreativen. Offene Formate wie CBZ oder CBR, einfache Download-Möglichkeiten, kein DRM und attraktive Angebote für Subskriptionen sind die Lösung. Hier ist übrigens aus meiner Sicht eine große Chance für kleinere Verlage oder Strukturen, ihre Hefte nicht als Webcomics, sondern in ein einem bewährten Format per Blogsystem und Paypal in Echtzeit abzusetzen und die etablierten Strukturen zu umfahren. Flatrates wären gerade für Comic-Publisher, in denen mehrere Hefte ja meist zusammengehören und eine Art «Universum» bilden, zudem eine attraktive Möglichkeit, neue Kunden zu gewinnen und alte zu binden. Wichtig ist aber, nicht nur einen digitalen Zugang mit proprietären Readern zu geben, sondern Zugang UND Besitz zu ermöglichen und auf offene, einfache Formate zu setzen. Oder zumindest beides anzubieten, also eine Art Unterschied zwischen «Streaming» bzw. Miete und «Download» bzw, Besitz anzubieten, wie es im Video- und Musikbereich längst getan wird.

DRM. Kaufe ich ein normales Buch, so kann ich es weiterverleihen, beliebig oft. Kaufe ich ein eBook, etwa ein DRM-geschütztes ePub bei iBooks oder Borders, kann ich das nicht tun. Hier verliert sich ein wichtiger Aspekt von Buch – das Weitergeben, weiterempfehlen, Teilen. Nook ist da einen (halbherzigen) Schritt weiter, sicher, aber generell ist diese Paranoia ein Malus für das eBook-Genre, der zudem auch nur für «legale» Bücher gilt, also wieder den Graumarkt stärkt. Der AppStore und iTunes beweisen, dass gerade DRM-freie Medien und der Verzicht auf Seriennummern/Aktivierungen usw. umsatzsteigernd wirken und die meisten User ein Modell wie das des AppStore – ein Account, mehrere Nutzungen möglich – akzeptieren. Es ist also vielleicht nicht klug, gerade angesichts der Erfahrungen der Musikindustrie, immer noch auf Rights Management zu setzen. Rückt den Nutzer in den Mittelpunkt der Anstrengungen, nicht den Raubkopierer. Wer einen Supermarkt hat und diesen mit Selbstschussanlagen und Stacheldraht gegen Einbrecher zu schützen versucht, wird wohl auch nicht viele Kunden mit diesem charmanten Auftritt für sich gewinnen. DRM kills your business.

Formate Die Formatvielfalt – mobi, lit, ePub, PDF und und und – fühlt sich an wie die frühen Tage von Video mit VHS, Beta und Video2000. Warum es diesen Formatkrieg gibt (und das PDF und textbasierte Formate tatsächlich unterschiedliche Vorteile bieten) ist so offenbar wie schade (anscheinend haben die Hardwareanbieter immer noch nichts aus VIdeo- und DVD-Formatkriegen gelernt, so unfassbar das scheint), aber alle Beteiligten – Konsumenten wir Produzenten – können nur von einheitlichen Standards profitieren. Das offene System zumindest halbwegs klarer Standards im Web kann hier Vorbildcharakter haben. Zumindest die XML/HTML-basierten Formate sollten weitestgehend identisch werden. Die flexible Orientierung an populären und simplen Standards ist immer sinnvoll in Umbruchszeiten (es sei denn man hat wie Apple die Marktmacht, eigene Standards einfach durchzudrücken, wie etwa bei iTunes Audio- und Videoformaten… aber diese Macht hat derzeit eigentlich keine andere Unternehmung und selbst Apple musste sich immer wieder dem Markt anpassen, um Erfolg zu haben).

Preise. Warum kostet Wolfgang Büchers wunderbares «Hartland» als ePub im Grunde ebensoviel wie als Hardcover? Obwohl es hier keine materialle Produktion, keine Lieferung, keinen Grossisten, keine Retouren, keine Lagerhaltung gibt und man sozusagen also ein «ideales» Gut hat, das alle Nebenkosten eines realen Objekts nicht mehr aufweist? Das Argument ist nicht neu – und über kurz oder lang werden die Verlage sich dieser (ja berechtigten) Frage stellen müssen und sich möglichst einheitlich auf ein Modell einigen müssen. Hier zu blockieren, auf Zeit zu spielen und erst einmal Anlaufinvestitionen in eine (allerdings nicht sonderlich teure) neue Technologie mitzunehmen, ist nachvollziehbar – aber die Zeit verrinnt. Gut beraten wäre die Branche, schnell ein klar am Kunden orientiertes Modell zu entwickeln. Ich kann verstehen, dass Verlage und vor allem auch Sortiment die identischen Preise phantastisch finden – sie verzögern den Wechsel der Leser zum digitalen Endgerät und sichern so die bestehenden Strukturen – und die Buchpreisbindung hierfür instrumentalisieren. Ich bin auch dankbar für jeden Job, der durch diesen Ansatz gerettet wird. Nur – der Arbeitsplatz wird nicht dauerhaft gesichert, der Wandel kommt sowieso und mit Verzögerung nur umso gewaltiger und durchschlagender. Unnachvollziehbar hohe Preise erzeugen zudem nur einen Graumarkt, an dem dann niemand mehr etwas verdienen wird. Fair Play auch bei den Preisen ist hier ein essentieller Ansatz, den zukünftigen digitalen Markt zu meistern.

Lesen. Man darf sich nichts vormachen – so phantastisch es ist, Bücher digital zu verwalten – kein Regalplatz, grandiose Markier- und Lesezeichenwerkzeuge, Text-Kopierfähigkeit, diverseste Ordnungsmöglichkeiten, so eben doch noch relativ unangenehm ist das Lesen an sich. Neben dem Display ist ein Hauptgrund die Software, die nicht nur generell zu wenig typographisch einwandfreie Schriften bietet sondern eigentlich nur eine winzige Font-Auswahl mit zudem wenig Features. Wichtig wären mehr Schriften, Open-Type-Fähigkeiten und vor allem eine stärkere Möglichkeit für die Gestalter, auch bei textbasierten eBooks Designvorgaben zu machen. Also Schrifteinbettung, optionale Einschränkung der Fluidität des Content und feste Schriftgröße, Zeilenabstand usw (eine Art Designer- vs- Usermode wäre ja denkbar, bei dem ein Buch aussieht wie für das Device «geplant», der Nutzer aber davon abweichend natürlich individuelle Einstellungen vornehmen kann). Sinnvoll wäre eine Balance zwischen Designvorgaben und der Möglichkeit für den Nutzer, gezielt einzugreifen, anstelle des jetzigen Design-Vakuums, bei dem man als Designer in etwa so effektiv arbeiten kann wie im Web vor 10 Jahren. Ich würde gern als Designer eines eBooks gern typographisch und im Layout sehr viel mehr machen können als eine Art aufgebohrte Textverarbeitung. Der erste kleine Schritt hierhin wäre vielleicht eine Möglichkeit geben, eigene Schriften sicher und lizenzrechtlich einwandfrei einzubinden. Ein weiterer Schritt, zudem ein lukrativer, wäre eine kleine Applikation, die gezielt und absolut sicher nur eBooks gestaltet und in der Applikation bereits verschiedene Reader simulieren kann – eigentlich eine Goldidee für den App-Store. Ein Zwischenschritt wäre, PDF deutlich besser in iBooks zu integrieren – GoodReader zeigt ja, das Textauswahl, Markieren und Notizen auch in PDF schnell und einwandfrei funktionieren. So wie es jetzt ist, braucht es beim digitalen Buch keine Designer mehr, das kann jeder Verlagspraktikant (leider!) selbst – und so sehen die Ergebnisse noch aus. An die Schönheit eines gut gesetzten gedruckten Buchs kommt das elektronische Pendant nicht näherungsweise heran. Noch gilt also, dass das Archivieren von Büchern digital mehr Freude bereitet als das Lesen – und das sollte sich mittelfristig drastisch ändern, denn es ist so, als könnte man in iTunes Musik nur in 64 kbit /s und frei von Bässen und Höhen hören oder als könnte das Schlagzeug jedes beliebigen Albums sich nur auf die fünf Drumsounds von Garageband beschränken.

Adobe. Beim Stichwort Gestaltung – es ist ein wenig seltsam, dass man eBooks fast besser in ausgerechnet Pages «layouten» kann als in InDesign, das von zahlreichen kleinen Bugs und einem Adobe-typisch komplizierten Workflow geprägt ist. Auf dem Weg in die Bedeutungslosigkeit ist Adobe derzeit scheinbar dabei, alle sich anbietenden Möglichkeiten einer Re-Etablierung als wichtiger Softwareanbieter zu ignorieren. ePub, PDF und andereAusgabe-Formate (also auch non-Adobe-Formate wie mobi oder lit) sowie Magazine-Apps müssen leicht, mit einem gewissen Spaßfaktor und ohne zusätzliche horrende Kosten (wie derzeit bei Digital Publishing) als integrierte Features der Creative Suite angeboten werden. Ansonsten verliert Adobe in diesem Bereich ebenso wie zuvor bei Flash und HTML. Nachdem Dreamweaver und Flash rapide an Bedeutung verlieren, und der Macromedia-Zukauf insofern rückblickend verspielt wirkt, bleibt Adobe noch die Printgemeinde mit Illustrator, Photoshop und Indesign. Erstere werden inzwischen teilweise von preiswerterer und schnellerer Software ersetzt (z.B. Pixelmator), die zumindest für Nicht-Profis zu einem Bruchteil der Kosten 80% der Leistung liefert. Aber selbst aus professioneller Sicht ist zumindest der Geschwindigkeitsunterschied zwischen 64-bit Pixelmator und 64-bit Photoshop verblüffend, auch wenn um PS de facto fast kein Weg herum führt derzeit. Das Potential eigener iPad-Apps hat Adobe bisher nahezu vollends unterschätzt. Setzt sich dieser Trend ungebrochen fort, wird es Adobe in 5 bis 10 Jahren nicht mehr geben. Der Zeitpunkt war nie besser, die Adobe Creative Suite samt aller Funktionen und Lizensierungsmodelle, Preispolitik und Offenheit von Strukturen genau JETZT komplett neu aufzustellen und zu überdenken, mit einem kritischen Blick auf die Stärken von Adobe und die Zukunft von Designproduktion in Print, im digitalen Publishing (in all seinen Formen) und in der möglichst nahtlosen Zusammenarbeit mit Programmierern. Ride the Wave, Adobe, don’t drown in it.

Es ist eine langsame, schmerzhafte Revolution, die sich hier vollzieht – nicht nur aus Branchensicht, sondern eben auch aus Sicht der Nutzer. Was Not tut, ist Beratung und Kommunikation. Die Verlage und Anbieter müssen sich – über Berater, über Workshops, über Verbindungen wie den Börsenverein, an strategischen Orten wie der Buchmesse – schnell und ehrlich mit ihren Kunden und den Lesern kurzschließen und mutige Strategien entwickeln, die gleichzeitig langfristig und flexibel/schnell sein müssen. Wer dies tut, wer das Produkt am Abnehmer orientiert, wer seine Strategie an der wirklichen Zielgruppe – dem Käufer, nicht dem «Dieb» – orientiert, der wird überraschende Erfolge feiern. Zugleich brauchen wir auf der produzierenden und die Verlage beratenden Seite des Geschäfts bessere und standardisiertere Werkzeuge für e-Medien, die erwachsen und ausgereift sind und effizient in den Workflow hineinpassen und als Medium per se überzeugen. So interessant diese Zeit des Umbruchs, der Irrwege und Experimente ist, so teuer und anstrengend ist sie auch – es wird Zeit, dass das junge eBook zumindest in die Teenagerjahre kommt. Und der iTunes-Store allein kann auf Dauer nicht der einzige Weg sein, die Verlage können an Monopol- und Oligopol-Strukturen nicht interessiert sein. Nie war die Zeit besser – für Verlage, Produzenten, Vertrieb und Sortiment – sich auf eine gemeinsame Strategie entlang der Kundeninteressen zu einigen.

17. Juni 2011 08:09 Uhr. Kategorie Buch, Design, Technik. Tag , , , , , , . 13 Antworten.

Adventures in buying ePub

hd schellnack

Morgen generell noch mehr zu dem Thema digitales Lesen, aber ganz kurz, weil es wirklich zum Verrücktwerden ist:

Ich will ein englisches Buch kaufen. Nach langer Google-Suche und vielen Fehlschlägen, bei denen man als deutscher Käufer kein Buch in Australien oder den USA kaufen kann, etwa bei Borders oder B&N, finde ich endlich mit «kobo» einen Laden, der das gewünschte Buch als ePub anbietet.

Nach der Abbuchung per Kreditkarte kommt ein acsm-Link. Also kein ePub, sondern einen Link. Als Käufer weiß ich nicht, was ich da vor mir habe. In den FAQ finde ich nichts. Ich schicke eine Support-Anfrage. Auf die Antwort warte ich noch.

Mit etwas Suchen in Google wird klar: Ich muss Adobe Digital Editions installieren und erst dann kann ich per Doppelklick die .acsm öffnen, die dann ihrerseits einen Download in Digital Editions einleitet. Vorher muss ich mich mit meiner Adobe ID anmelden bei Adobe. Gottlob habe ich eine – was macht hier eigentlich der Normalverbraucher? Umständlicher geht es wohl kaum und jeder normale Nutzer dürfte bereits an dieser Stelle die Flinte ins Korn geworfen haben. Zudem ist ein Kauf direkt am iPad insgesamt damit völlig undenkbar, was bedeutet, dass die Stores auf eine große potentielle Käuferschaft verzichten. Warum?

Das Buch ist jetzt in Adobe Digital Editions lesbar, einer Art AIR-Applikation und einer der schlimmsten Desktop-Reader, die ich kenne. Es ist vor allem NUR dort lesbar. Weil legendär wir alle ja unser Buch am Desktop lesen wollen. Selbst wenn man die ePub auf dem Rechner nach kurzer Suche doch gefunden hat, funktioniert sie NICHT in iBooks. Das Digital Rights Management macht das Buch auf dem iPad unlesbar. Was angesichts der ja doch sehr geschlossenen Plattform iPad etwas unverständlich ist. Schön, wen Adobe und Apple sich nicht grün sind – aber muss ich darunter leiden?

Jetzt gibt es den Weg – der legal schon eher im dunkelgrauen Bereich liegen dürfte – das Digital Rights Management mit einem Tool oder einfachen Python-Script zu entfernen. Die meisten Tools kosten etwas, die Script-Lösung ist gratis, aber nicht gerade für den Post-PC-iPad-User denkbar. Selbst wer bereit ist, das zu tun, hat also vier bis fünf Schritte zu tun und muss mehrere Softwares installieren und am Ende die Entscheidung zu treffen, doch semilegal zu handeln, um einen einfachen Buchkauf zu tätigen und das Buch auf dem Endgerät und der Software seiner Wahl lesen zu können. Serviceorientiert ist nun wirklich anders. Es fühlt sich in etwa genauso absurd an wie Musikkauf digital vor 10 Jahren – als man noch CDs «rippen» musste, mit Sonys perfiden Schutzmechanismen kämpfte, alles nur, um Musik auf dem iPod hören zu können. Hier hat sich viel geändert – unter dem Druck des Marktes – will die Buchbranche wirklich gar nichts daraus lernen?

Ich kann exzellent verstehen, dass Anbieter ihre Rechte schützen wollen. Aber man darf das Kind doch nicht mit dem Bade ausschütten. So wie es sinnlos ist, Käufer einer legalen DVD mit Raubkopie-Warnungs-Filmchen zu bestrafen oder legale Software-User mit endlosen Ziffernfolgen und Activation-Softwares zu peinigen, die mehr Probleme für legale Nutzer machen als Kopien zu verhindern, so kann es doch nicht sein, dass ein simpler digitaler Buchkauf nicht nur so viel Zeit frisst, sondern am Ende entweder in der Frustration, 20 Euro vergeudet zu haben, oder in der Entscheidung, eben doch Urheberrechte zu verletzten, münden muss.

Es wäre ja vertretbar, wenn es nur diesen einen Weg um Buch gäbe – aber da vergessen die Verlage, dass seit Erscheinen des iPad digitale Bücher in schier unfassbarer Masse eben auch illegal downloadbar geworden sind. Und ich kann nur als Konsument sprechen und immer wieder das gleiche sagen: Seitdem es in iTunes nahezu alle aktuellen Alben zum fairen Preis ohne DRM gibt, kaufe ich ausschließlich dort. Bei Büchern wäre es genau so. Aber würde ich ein Buch, das ich im Buchhandel kaufe, erst lesen können, nachdem ich viermal durch brennende Reifen gesprungen, einen Salto und einen Hochseilakt gemacht hätte, würde ich dort nicht mehr kaufen. Vor allem nicht, wenn es das gleiche Buch an jeder Ecke umsonst ohne jedwede akrobatische Verbiegungen gibt.

Das ist eine ganz essentielle Erkenntnis, die nicht schnell genug bei den Entscheidern ankommen kann. Ob Comics oder Bücher – aus Konsumentensicht machen die Verlage hier derzeit nahezu alles falsch. Zu geringes Angebot, zu hohe Preise (bei deutschen Büchern oft defacto der Hardcover-Preis), internationaler Kauf unmöglich bis schwierig und dass tatsächlich noch jemand glaubt, Digital Rights Management sei ein gangbarer Weg ist zum Weinen. Es ist eine Sache, Raubkopie verhindern zu wollen, aber es ist eine ganz andere Sache, den legalen Kauf zu einem unangenehmen bis nahezu unmöglichen Erlebnis zu machen. Digital ist eine Tatsache – man sollte diesen Markt nutzen statt ihn zu bekämpfen. Der Weg ist nicht, illegale Plattform zu schließen – der Weg ist, legale Plattformen zu eröffnen, die darauf eingehen, was die potentiellen Legalen Nutzer pragmatisch wünschen. Von iTunes lernen heißt hier siegen lernen.

16. Juni 2011 12:22 Uhr. Kategorie Technik. Tag , , , . Eine Antwort.

Schutzengel sind gut, Backup ist besser…

hd schellnack

Obwohl das hier wirklich kein Technik-Blog werden soll – ich wurde kürzlich gebeten, meine Back-Up-Strategie zu erklären und dem will ich natürlich gern kurz nachkommen, auch wenn ich nicht weiß, ob unsere Strategie stellvertretend für ein Designbüro mittlerer Größe ist – seit etwa drei Jahren, mit dem Umzug auf OS X haben wir keine «offizielle» IT mehr und arbeiten mehr mit einfachen, überschaubaren Lösungen.

Zentrales Thema beim Backup ist die absolute und permanente Sicherheit von Kunden-Daten. Im Laufe der letzten 15 Jahre ist es nur einmal bei einem Kundenprojekt vorgekommen, dass wir einen richtig bösen Datencrash hatte, durch einen zerstörten Festplattenkopf und ein nicht-aktuelles Backup, und durch viele Beinahe-Katastrophen sind wir mit den Jahren so sensibel geworden, dass wir fast etwas Overkill betreiben und Daten sehr redundant speichern – und selbst das erscheint mir oft nicht sicher genug. Sowohl Archivdaten als auch laufende Projekte sind mehrfach, mindestens immer zweimal, vorhanden – und ich muss sagen mit dem Wechsel von Windows zurück zu Mac vor einigen Jahren sind die Backup-Methoden deutlich vereinfacht worden, weil OS X etwas Sync-freundlicher ist als Windows, wo Werkzeuge wie Acronis beispielsweise gern mal ein komplettes RAID-System so zerschossen haben, das man sehr froh über doppelte Speicherungen war. Unter Mac arbeiten wir nicht mehr mit RAID 5-System, aber auch Lösungen wie TimeMachine sowie diverse Ordner-Synchronisations-Werkzeuge machen uns das Leben deutlich einfacher.

Der Hintergrund: Wir arbeiten bei nodesign mit fünf Leuten und mit sieben Rechner, vier iMacs, ein MacPro, zwei Air fürs mobile Arbeiten und Präsentationen. Der MacPro ist mit 2TB und 3TB-Platten voll ausgestattet und dient dem Büro sozusagen als Datenserver für Bilder, alte Projekte und als Ort, an dem alle Projekte gespeichert sind (abgesehen von Zwischenstufen, die jeweils auf dem Desktop der Clients stattfinden können) und beinhaltet außerdem alle Medien – Fonts, Softwares, Musik, Filme, Bücher und so weiter. Die iMac-Clients haben jeweils 1 oder 2 TB Platten, die Airs 128 bzw 256 GB.

Es gibt keinen klassischen Backup-Plan und meine Methode dürfte jeden ITler in den Wahnsinn treiben, sieht aber etwa wie folgt aus:

Jeder iMac hat zwei externe HDD, je nach Kapazität 1 TB oder 2 TB. Früher waren das bevorzugt WesternDigital MyBook, seitdem WD diese aber zu «klug» gemacht hat, bevorzuge ich die Elements-Laufwerke, die keine vorinstallierte Software mitbringen, sondern einfache «dumme» externe Volumes sind. Eine der externen HDDs dient als Time-Machine-Backu-Medium, das andere spiegelt via Carbon Copy Cloner (der sich als etwas flexibler erwiesen hat als SuperDuper) einmal täglich die gesamte Festplatte. TimeMachine ist also sozusagen das Kurzzeitgedächtnis für versehentlich überschriebene oder gelöschte Dateien, CarbonCopy das Krisenmanagement für den Fall eines Absturzes, da man von diesen Clones aus komplett neu booten kann, sogar an anderen Rechnern. Die Platten sind Firewire- oder USB, tatsächlich ist vor allem aber TimeMachine so langsam, dass der Anschluß kaum eine wirklich spürbare Rolle spielt, zumal die Backups im Hintergrund stattfinden und CCC erst nach Feierabend um 18.00 alles sichert. Beide Methoden sind inkremental, brauchen also meist auch nicht lang.

Die Air-Macbooks haben das gleiche Konzept, allerdings mit einer LaCie Rikiki und einer Freecom XXS, jeweils 1TB – beide sind groß genug, um TM, CarbonCopy und sogar noch etwas Raum für externe Daten zuzulassen und sind zugleich so klein und mobil, dass sie dem leichtgewichtigen Reisespaß mit dem Air nie im Wege stehen. DIe Rikiki unterstützt USB3, das Air allerdings seinerseits noch nicht. Insgesamt ist die XXS die Platte, die ich von Herzen empfehlen kann, obwohl oder vielleicht gerade wegen der fast verbrecherisch leichtsinnigen Ummantelung, die im Grunde nur aus einer Neoprenhülle besteht. Kleiner geht es derzeit kaum.

Der MacPro ist von Ende 2010 und unterstützt insofern leider noch kein Thunderbolt – also habe ich eine LaCie USB3-Karte eingebaut, die zwei Minimus-Platten ansteuert. Die Platten sind klein uns leise und durch USB3 so schnell, wie die internen Platten (512 GB SSD, 2x 3 TB, 1×2 TB) und der Bus der Platten es eben hergeben. Thunderbolt und externe SSD-Laufwerke dürften hier noch mal einen Leistungssprung bringen. Aber um die Wahrheit zu sagen – siehe oben – bei beiden Sachen kommt es nur beim ersten Backup aufs Tempo an. LaCie hat einen eigenen USB-Treiber im Angebot, der derzeit einzige (meines Wissens nach) für Mac – der Haken bei der Sache ist, das er wirklich NUR LaCie-Produkte unterstützt, durch eine kleine Hardware-Abfrage. Verständlich von Seiten der Herstellers, aber nicht sonderlich sinnvoll auf Dauer. Aber ich denke, mit Thunderbolt dürfte sich die Frage nach der Zukunft von USB3 am Mac erledigt haben. Die Minimus-Platten sind nicht so robust im Handling wie die WD-Platten. Es kann schon einmal vorkommen, dass die Platten sich ungefragt aus dem System verabschieden – und hier hilft nur ein Neustart des Systems. Auch die Hotplug-Fähigkeit ist eher bescheiden, zieht man eine Platte ab, sind beide «unmounted» und auch hier hilft nur erneutes Booten… Kleinigkeiten, die den ansonsten guten Eindruck der LaCie-Produkte etwas trüben. Diese beiden Platten sichern via CCC und TM die SSD-Bootplate und die «Daten»-Platte sowie die wichtigsten Medien (iTunes-Bibliothek usw.), die auf der vierten Platte liegen.

Ein weiteres CCC-Backup läuft einmal wöchentlich und speichert Daten, die beiden 3-TB-Archive und die Media-Platte auf einen 8-TB-Drobo. Der inzwischen drei Jahre alte Drobo ist erste Generation (hat aber mehrere Platten-Updates hinter sich), hat vier Slots à 1 TB, ist per USB angeschlossen und im Schrank versteckt (wegen der doch recht lauten Lüftung) – und bisher tut der Drobo zwar nicht wirklich rasant schnell, aber mit zwei Ausnahmen doch sehr sicher seinen Dienst. Der Drobo ist ein redundanter Speicher – er sichert eigentlich nur Daten ab, die ja bereits im Archiv liegen und gewährleistet eigentlich nur, dass wir bei einem versehentlichen Überschreiben einer Datei im Archiv (was mit InDesign oft genug passieren kann, wenn man in einer Vorlage arbeitet und im Arbeitsfieber CMD-S drückt ) das Original wieder herstellen können bzw. sorgt einem HDD-Crash vor. Er ist keine aktive Platte, insofern ist mir das Tempo vom Drobo relativ egal, zumal die Backups automatisiert am Wochenende laufen. Achtung: Beim Drobo hat es sich als sinnvoll herausgestellt, immer eine Wechselplatte gleichen Formats zur Hand zu haben, falls einmal eine der vier Platten ausfällt und ausgetauscht werden muss. Der Drobo mit vier Slots braucht also eigentlich fünf Platten, der fünfer entsprechend sechs und so weiter.

Per Folderwatch werden in Echtzeit die Mediadaten (iTunes usw) auf einer 2-TB-TimeCapsule synchronisiert, die zugleich ein zweites WLAN neben der Fritzbox liefert. Die Daten sind eine 1:1-Spiegelung und dienen nur als Sicherheit – um versehentliches Löschen von Daten, das ja sofort mit-synchronisiert würde, abzufangen werden diese Daten außerdem einmal monatlich auf einer weiteren 2-TB-Elements-Platte von WD gesichert – in diesem Falle manuell per Forklift-Synclet. Das ist ein wenig Overkill, zugegeben – aber iTunes kann gelegentlich etwas wirsch reagieren und in drei Fällen hat es mich schon gerettet, einfach noch einmal an alte Tracks heranzukommen. Mit iCloud und iTunes Match könnte sich dieser Schritt als überflüssig erweisen, weil man ja ein Backup «in the cloud» hätte.

Apropos in the Cloud – SSD-Laufwerk, Daten und das Archiv 01 (aktuellere Projekte des letzten Jahres oder Projekte gerade akuter Auftraggeber) sowie iTunes werden zusätzlich per Backblaze gesichert. Backblaze ist für die hier bestehenden Datenmengen – etwa 5 TB – alles andere als geeignet, das Erstbackup dauert natürlich selbst bei voll aufgedrehtem Upload und VDSL ohne Frage Monate. Ich bin sicher, Backblaze ist eher für kleinere Systeme gedacht – MacBooks und iMacs dürften ideal sein -, aber es gibt kein tatsächliches Limit und es st ja relativ egal, wie lange der Upload dauert – als letzte Rettungsleine ist es irgendwann sicher dennoch zu gebrauchen und mit 5 Euro im Monat auch preiswert genug (auch wenn man kaum darüber nachdenken mag, wie lange ein Restore von einem solchen Backup dauern dürfte). Backblaze lässt sich einfach konfigurieren – welche Platten, welche Ordner nicht sichern, wie schnell, usw. – und macht dann mehr oder minder unsichtbar im Hintergrund seine Arbeit, sollte nur bei extrem zeitkritischen Uploads vielleicht kurz deaktiviert oder ausgebremst werden, ansonsten merkt man es im Alltag kaum, selbst wenn es permanent hochlädt. Ich glaube, diese Form von Online-Backup wird in Zukunft mehr zunehmen, mit wachsenden Bandbreiten im Web.

Last not least bleiben durch Hardware-Updates eine wachsende Anzahl von 1TB- und 2TB-Platten im Büro, auf die wir mit einem Sharkoon SATA Quickport unregelmäßig manuell wichtige Daten aus dem Archiv spiegeln – falls alle Stricke reißen, ist das besser als nichts. Von wichtigen Daten wie Photos bekommen zudem die Auftraggeber auf Wunsch eine Backup-Festplatte, so dass die Daten auch außer Haus gesichert sind.

Streamer und DVDs setzen wir (gottseidank) seit einigen Jahren gar nicht mehr ein und ich muss zugeben, ich kann es kaum abwarten, bis aus normalen Festplatten durchgehend SSD via Thunderbolt geworden ist und natürlich große Kapazitäten deutlich preiswerter sind – obwohl das noch Jahre dauern dürfte – um endgültig etwas aus den «mechanischen» Unsicherheiten sterbender Festplatten heraus zu sein. Obwohl wir mit unseren Datenmengen ein reines Online-Backup derzeit wirklich nicht als brauchbare Lösung betrachten, ist es für kleinere Systeme eigentlich ein ausgezeichneter Weg – wenn es auch keine Boot-Platte mit einem Clone des Systems ersetzen würde. Langfristig würde mich nicht wundern, wenn Sachen wie TimeMachine aber komplett «in the cloud» passieren und man vielleicht sogar mehr und mehr auch mit den akuten Daten, an denen man kollaborativ arbeitet, direkt auf einem Webserver arbeitet. Dazu müssen bei diesen aber Redundanzen, Versioning und Restores sicher deutlich einfacher und erwachsener werden.

Komplette Sicherheit gibt es selbst so freilich nicht – mit TimeMachine etwa geht es nur immer zur letzten Stunde zurück – aber alles in allem habt sich die Methode als verlässliches Sicherheitsnetz erwiesen, um sowohl kurzfristige Fehler durch Überschreiben alter Daten oder Fehlspeichern sowie komplette Systemausfälle (die wir in den letzten drei Jahren ohnehin nur einmal hatten bei einem Rechner) aufzufangen.

Ich weiß nicht, ob diese Information etwas hilft – zumal wahrscheinlich jeder seine individuelle Methode finden muss, sich «sicher» zu fühlen. Ich kenne Nutzer, die gar kein Back-Up machen und sich auf ihren Schutzengel voll verlassen (durchaus auch mit Erfolg), andere setzen nur auf TimeMachine und die Restore-Disk, andere clonen nur. Ich persönlich finde, das jede Form von Speicherkosten für uns gering ausfällt gegen die Kosten, ein verloren gegangenes Design noch einmal nachbauen zu müssen oder – persönlicher – auch gekaufte Musik und Bücher in großer Zahl nachkaufen zu müssen.

14. Juni 2011 12:13 Uhr. Kategorie Technik. Tag , , . Eine Antwort.

Sparrow

hd schellnack

Was als minimalistischer Gmail-Client angefangen hat, mausert sich bereits in der zweiten Überarbeitung zu einem überraschend guten generellen IMAP-Mail-Werkzeug. Sparrow erinnert stark an Reeder (oder umgekehrt) und ist insofern ähnlich intuitiv und angenehm zu bedienen, überzeugt mit vielleicht unnötigen aber ja dennoch schönen Animationen, die ja eben doch auch Teil des Gesamteindrucks sind, und unter der schönen Oberfläche – gegen die das ja auch schon nicht unschöne Mail von Apple relativ altbacken wirkt – wimmelt es von durchdachten Details, die auch auf den zweiten Blick das Arbeiten effizienter machen. Tastatur-Shortcuts bis ins kleinste Details, per Mouse-Geste oder Shortcut zuschaltbare Fensterelemente, eine smarte Nutzung von IMAP-Ordnern als «Label» – unter der schicken Fassade haben sich die Entwickler spürbar Gedanken gemacht, wie eine sehr schmale aber sehr leistungsfähige Mail-Verwaltung funktioniert, die Mail tatsächlich nicht vollständig ersetzt, aber im Alltag für Read-and-Reply mehr als perfekt ist. Mail selbst hat deutlich stärkere Filter-Features, ist sehr viel stärker im Sortieren von Inhalten und beim lokalen Archivieren von Mails – Sparrow fühlt sich dagegen eher so an wie ein iPhone-Client, klein und immer zur Hand. Per Tastaturkürzel steht Sparrow immer für eine neue Mail zur Verfügung, ohne in das Programm selbst wechseln zu müssen – und auch die Quick-Reply-Lösung wird schnell zur festen Angewohnheit, zumal das Zitieren von Mail-Inhalten durch die Arbeit in nur einem Fenster deutlich schneller von der Hand geht. Der Konversations-Modus, wie man ihn im Ansatz schon von Mail selbst oder besser von Postbox kennt, ist hier zwar nicht völlig ideal umgesetzt (warum sind zitierte Stellen und selbst die neuste Mail «eingeklappt»?), aber schon nach kurzer Eingewöhnung die beste Form, um in Dialogform Mails zu schreiben – gerade in der Arbeit an Projekten ein echter Bonus. War Sparrow bis 1.2 eigentlich aus meiner Sicht keine sonderlich überzeugende Lösung, hat das Update die Software überraschend gereift. Eine einheitliche Inbox und zig Details machen das Tool mit wenigen Ausnahmen sehr, sehr alltagstauglich. Die Facebook-Einbindung mag für manche Nutzer Sinn machen, ist aus meiner Sicht aber eher für private Mails sinnvoll, zumal ich die Anzeige von Profilbildern ohnehin deaktiviert habe und ich – ob das nun Paranoia ist oder nicht – möglichst wenig Apps Zugriff auf FB gebe, man muss sich ja nicht freiwillig zu sehr mit der Datenkrake vernetzen. Sparrow setzt auf Übersichtlichkeit und Minimalismus und ist deshalb sicher nichts für jemanden, der massiv mit der Möglichkeit, direkt auf dem IMAP-Server Ordner anzulegen arbeitet, denn diese sind nicht so direkt zugänglich wie etwa in Mail. Andererseits ist die Nutzung eben solcher Ordner als «Labels» eine gute Idee – es wäre nur schön, wenn der Zugriff besser ist. So kann man etwa aus der «Unified Inbox» nicht auf auf die Labels bzw IMAP-Ordner zugreifen, weil diese ja einem bestimmten Account zugeordnet sind. Das sollte man ändern, ebenso wäre es gut, wenn bestimmte Ordner einfach wie gesendete Mail, Papierkorb in die Seitenleiste aufgenommen werden könnten, entweder im Kontext der einzelnen Accounts oder sogar unabhängig davon – zumal unter den Accounts ja noch reichlich Platz bei den meisten Usern sein dürfte. Vielleicht bringt das für 1.3 angekündigte neue Label-Management da ja eine Besserung. Sehr schön gelöst ist der Favoriten-Stern, der im Grunde der «Flag» in Mail entspricht. Mit einem Stern versehene Mails haben einen eigenen Folder im Account und sind so schneller wiedergefunden als mit der dezenten Flagge in Mail (was man im Mail freilich mit einem Smart Folder auch lösen kann). Es wäre fast schön, wenn dieser Stern mehr könnte – etwa farbliche Dringlichkeitsstufen – aber im Grunde ist es so simpel ja auch sehr handlich. Sparrow zeigt den üblichen Kampf zwischen Features und Minimalismus und entscheidet sich überwiegend für letzteres. Einfach gesagt sind Mail oder auch Postbox deutlich bessere Werkzeuge für das Verwalten von Mail, fürs Suchen, Archivieren, Dokumentieren – wo Sparrow sich durchsetzt ist das fast Instant-Messenger-artige Interface, das das Schreiben und Beantworten von eMails enorm beschleunigt. Man kann darüber diskutieren, wie gut das an sich ist – Effizienzexperten raten ja etwas weltfremd oft dazu, nur zwei- oder dreimal am Tag eMails zu beantworten – aber für Nutzer, die relativ viel über Mail kommunzieren ist ein schnelleres und auf Dialogstrukturen optimiertes Mailprogramm natürlich ein Segen. Und Sparrow – trotz aller kleiner Fehler und trotz der Tatsache, dass man dennoch nicht um Mail herumkommt – entwickelt sich kontinuierlich in diese Richtung, wird durch recht viele individuelle Optionseinstellungen minimalistisch und funktional.

29. Mai 2011 09:40 Uhr. Kategorie Technik. Tag , . 7 Antworten.

Adobe goes iPad

hd schellnack

Ganz generell ist man ja schon fast dankbar, dass Adobe das iPad überhaupt zur Kenntnis nimmt. Jenseits einer eher mauen Photoshop-Express-Version, deren Funktionsumfang nur durch das «Gratis»-Preisetikett zu rechtfertigen ist, scheint der Zwist zwischen Adobe und Apple so tief zu gehen, dass Adobe hier anscheinend einen ganzen Markt verpennt, in dem andere Firmen mit Bildbearbeitung, Filtern und auch den ersten Vektor-Zeichentools durchaus Fuß fassen. Zwei Jahre nach dem Release des iPad gibt es nichts ernsthaftes in Sachen Creative Suite, was auf dem iPad funktioniert – obwohl ich es für durchaus denkbar halte, via Dropbox eine App mit Indesign so zu verzahnen, dass man zumindest Texte und leichte Grafikkorrekturen machen könnte.

Als ersten Schritt in Richtung Apple kommen nun drei Apps von Adobe, die eigentlich ebenso gut auch eine App hätten sein können, dürfen und vielleicht müssen, mit denen man nun ein bisschen Fingermalen darf, Farben anmischen kann und eine Art rudimentäre Fernbedienung für die Werkzeugleiste. Die ersten beiden bringen mir ehrlich gesagt relativ wenig – zumal das Malen mit bloßen Fingern auf dem iPad vielleicht bei David Hockney zu guten Ergebnissen führt, bei mir ist der Finger als Werkzeug nur bei kühlen klimatischen Bedingungen ein geeignetes Mal- und Schreibwerkzeug, wobei das ja mit dem Stift umgehbar ist… nur kann ich dann auch direkt mit dem deutlich überlegenen Intuos direkt in PS arbeiten.

Was «Nav» angeht, so ist inzwischen der Wow-Effekt der Kommunikation zwischen einer Desktop-Applikation und einer iOS-App via WLAN relativ verflogen in Zeiten, wo ich über 3G von jedem beliebigen Ort per Screens meinen ganzen Rechner fernbedienen kann. Das User Interface ist grässlich, die Funktionalität erinnert an eine Amateur-AIR-App. Und was es tatsächlich bringt, abgesehen von einem rasant leergesaugten Akku, ist minimal, weil ein Switch zwischen Werkzeugen oder das Öffnen von Bildern zumindest bei mir schneller und natürlicher über die Tastatur stattfindet – oder zur Not auch per Maus, die man ja eh in der Hand hat und auch in der Hand haben muss, weil «Nav» wirklich nur den Wechsel zwischen Tools erlaubt, nicht aber ihren touchscreenbasieren Einsatz (à la Wacom Cintiq). Der Zusatznutzen von «Nav» eröffnet sich mir insofern eher nicht.

Und hier zeigt sich ein Wandel, den es seit einiger Zeit spürbar gibt, den aber der App Store sehr greifbar und konkret macht – das Ende der großen Software-Anbieter. Ungeachtet der Logistik-Stärken, die eben das Internet als Vertriebsweg zunehmend unwichtig macht, ungeachtet der gefüllten Kriegskassen für Zukäufe von bestehenden Firmen… Microsoft, Adobe und Konsorten schwächeln angesichts eines ätherisierten Verständnisses von Software, das so völlig anders ist als noch vor zehn Jahren. Apple ist die eine noch bestehende Ausnahme, weil sie durch eine glückliche Fügung so viele Standbeine haben, dass die Software halt mitlaufen kann beziehungsweise von den Spielbeinen beflügelt wird, etwa durch die Präsenz im Appstore, und weil die Firma mit Produkten wie Garageband oder Pages/Keynote relativ schnell auf das ja eben eigene Produkt iPad reagieren konnte, während es immer noch kein «Office 2011» für iPad gibt, außer indirekt eben von Drittanbietern. Wobei man sich nichts vormachen darf – nahezu alle Software-Launches der letzten Zeit von Apple hatten Probleme, die auf die Firmengröße rückführbar sind.

Aber generell hat das Web – und die Appstores – die Vorteile großer Softwareanbieter weggewischt, egalisiert. DVD-Brennwerke, Packagedesign – alles egal. Mit einer passablen Website, etwas Eigen-PR via Twitter und den üblichen Gadget-Blogs, Mundpropaganda und gutem Support kann eine gute Software von einer winzigen Firma über Nacht zum Erfolg werden und Standards setzen (und genau so schnell durch die nächstbessere Lösung obsolet gemacht werden). Die Applikationen, die ich auf dem iPad, aber eben auch auf dem Desktop-Rechner zunehmend verwende, stammen von kleineren Anbietern, oft Ein-Mann-Firmen. Das ist ein großer Umbruch in der Entstehung und im Vertrieb von Programmen, der mir derzeit auch unumkehrbar scheint. Und er macht Sinn, wenn man sich die Preise ansieht. Adobe und Microsoft nutzen eine – vor allem bei MS schwindende – Monopolstellung, um überzogene Preise durchzusetzen, und verpassen dabei, wahrzunehmen, wie sehr ihr Monopol wankt. Längst wirkt die Creative Suite so überfrachtet, unnötig kompliziert und schlecht zusammenpassend (während an anderer Stelle wieder an bestimmten Features durchaus eher fehlen), dass es eigentlich nur eine Frage der Zeit ist, bis bessere Alternativen emergieren, so wie Indesign Quark ersetzt hat. Die Entscheidung, iPad-Publishing mit einem hohen Preis als Online-Modell zu realisieren, wird sich hier langfristig als großer Fehler erweisen, ebenso die schlechte Content/Form-Verzahnung bei Indesign. Adobe reagiert nur langsam und schlecht auf Veränderungen im Webdesign und hat Dreamweaver und Flash förmlich verkommen lassen und schlägt selbst aus der Tatsache, mit PDF und SWF zwei grandiose Formate in der Hand zu haben, kein großes Kapital mehr, was an ein Wunder grenzt. Microsoft hat es in zehn Jahren nicht geschafft, aus dem Dauerbrenner Powerpoint auch nur näherungsweise ein vernünftiges Präsentationswerkzeug zu machen, es fühlt sich immer noch an wie Textverarbeitung 1990.

Auf der anderen Seite bieten namenlose Firmen smarte, sehr gut programmierte Tools an, die verblüffend liebevoll gemacht sind und im Alltag exzellente Arbeit leisten. Von welchem Ende der Welt diese Programme dann kommen, ist fast egal, und es ist fast egal, ob es iOS oder OSX-Programme sind, zumal diese künstliche Trennung in den kommenden Jahren sicherlich zunehmend verschwinden wird. All diese kleinen und großen Programme – Reeder, Writings, Byword, FocusWriter, Drops, Forklift, Omniplan und -focus, ComicZeal, iThoughts, TotalFinder, Alarms, GrandTotal, Frizzix, Saldomat, CopyPaster, iOutbank, Screens und und und – stammen von kleinen Firmen und selbst Größen wie Dropbox oder Evernote fühlen sich «klein» an gegen Microsoft und kommen eben mit wachsender Größe an bestimmte Grenzen. Denn gerade bei den kleinen Apps wird klar, wie schnell und reaktiv Updates sein können. Wenn etwa ein Zevrix-Plug-In wie LinkOptimizer ein wichtiges Feature vermissen lässt, reicht eine freundliche Frage und das nächste Update zwei Tage später kann’s. Es ist ein fast surreales Erlebnis in Sachen Service, wie freundlich und offen kleine Firmen für Anregungen sind – und wie klar sie aber auch wissen, was für sie nicht machbar oder gut wäre. Es ist ein extrem faires Modell – und zugleich übrigens der beste Schutz gegen Raubkopie. Von anonymen Großfirmen überteuerte Software «klauen» ist ja vielleicht eine Sache – aber bei kleinen Machern ist schnell klar, dass nur über Verkauf und faires Miteinander eine Pflege und ein Fortbestehen des Programms gegeben ist. Es entsteht so eine vergleichsweise faire, aber kleinere Mikrostruktur, die ein wenig an den Selbstvertrieb von Musik erinnert und es ist nicht ohne Grund, dass Kickstarter auch für Software eine Plattform sein kann. Während es für Monolithen wie Microsoft strukturell fast undenkbar war (und ist), halbwegs direkt mit Endverbrauchern in Kontakt zu kommen, suchen die jüngeren Entwickler diesen Kontakt vom ersten Moment an. Man muss kein Prophet sein, um in diesem Modell ganz generell eine Zukunft für kreative Leistungen aller Art zu entdecken – Musik, Bücher, vielleicht sogar Design und Architektur. Weg von den Moloch-Strukturen, hin zu projektgerechten und engagierten Größen, die ein one-on-one ermöglichen. Ich habe beispielsweise nie verstanden, warum so viele Auftraggeber in der Architektur mit Foster zusammenarbeiten, wo doch klar ist, dass Sir Norman mit der Firma, die seinen Namen trägt, nicht mehr allzuviel zu tun hat und man eigentlich einen Finanzdienstleister beauftragt, dem es primär ums Geld geht und dessen große Struktur man schlicht mit bezahlt. Entsprechend habe ich mich gefreut, dass Google mutig genug war, anders als Apple, nicht auf die übliche Foster-Lösung zu setzen, oder einen der sehr großen US-Architekten zu nehmen, sondern das vergleichsweise kleinere Büro Ingenhoven zu beauftragen, wo eine viel individuellere Zusammenarbeit machbar ist. Das ist eine richtige Entscheidung. Analog bin ich immer geknickt, wenn wir in Pitches gegen Metadesign oder JvM verlieren – Büros, die gar nicht in Pitches gegen uns bzw wir gegen sie spielen dürften -, durchaus auch bei Jobs, wo das Budget solche Großagenturen gar nicht hergibt. Nicht, weil uns ein Auftrag entgeht (es kommt ja immer etwas anderes rein), sondern weil es für den Auftraggeber, mit dessen Problemen und Zielen man sich ja intensiv identifiziert hat im Rahmen einer Lösungsfindung, die falsche, nur vermeintlich «sichere» Lösung ist. Entsprechend mies ist das, was dabei meist am Ende rauskommt.

Der traurige Stand der Dinge bei Adobe belegt, dass ein Ende der «Big is beautiful»-Ära präsent auch in der Softwarebranche angekommen ist. In Zukunft werden sich große Strukturen zunehmend fragen müssen, ob man sie noch braucht. Digitaler Direktvertrieb und das Internet machen es möglich, klein anzufangen und nach Bedarf atmend zu wachsen, sich selbst zu vermarkten. Auf diesen Power Shift in dem Verhältnis zwischen Musikern und Labels (die ja inzwischen mehr Kreditgeber sind) oder Autoren und Verlagen, zwischen Programmierern und Salesmen, ist die Industrie offenbar kaum vorbereitet, auch wenn ich sicher bin, dass in den Strukturen smarte Leute längst die Alarmglocken läuten. Was soll einen Autor noch abhalten – ob Newcomer oder Bestsellerschreiber – seine Werke mit geringer Startinvestition direkt via iBooks oder als App zu vertreiben? Sobald Apple den «Independants» die Tore öffnet wird es den größten Umbruch in der Verlagswelt geben, den man sich vorstellen kann. Mit dem AppStore ist dieser Umbruch – prägnanter noch als in der letzten Dekade per Direktverkauf online – längst im Softwarebereich vollzogen. Größe spielt (fast) keine Rolle mehr, Service, Tempo, Qualität sind entscheidend – und gute Bewertungen, die daraus resultieren.

Adobe täte gut daran, sich schnell und konsequent auf diese neuen Verhältnisse einzustellen, kleiner, fairer, schneller zu werden und sich vom Marketing wieder auf die Programmierung zu refokussieren – denn die Marktmacht des Giganten wird zunehmend unwichtig. Die ja immer noch recht gute Softwarebasis gilt es aufzubauen, auszubauen, reaktiver zu bekommen und für neue Plattformen umzusetzen. Ansonsten wird der Tag kommen, an dem der Preisunterschied zwischen Photoshop und sagen wir Pixelmator nicht mehr zu rechtfertigen ist. Und sich die Frage stellt, ob man iPad-Newsmags wirklich noch mit Indesign layouten will oder ob es nicht eine integrierte, viel bessere Lösung eines kleinen Anbieters gibt, die im Endeffekt besser funktioniert. Und auf diese Frage hat Adobe derzeit keine überzeugende Antwort, leider.

10. Mai 2011 17:32 Uhr. Kategorie Technik. Tag , , , . 2 Antworten.

AnalogColor

toycamera.jpg

Der Tipp kam eben von Marc Dirkmann, der auf der Suche nach einem preiswerten Toycamera-Tool für den Mac auf AnalogColor von Pentacom stieß. Mit zahlreichen Optionen und für 10 Euro sicherlich eine Testfahrt wert, zumal die (sich leider etwas wiederholenden) «Open Camera»-Lichteinfälle Spaß machen. Den Look landläufiger Fake-Lomo/Holga/Diana-Photographie kriegt AnalogColor solide hin und bietet zudem deutlich mehr Einstelloptionen als etwa CameraBag, das nur mit Templates arbeitet und zudem 10 Euro teurer ist. Beide Tools kriegen den Look zahlloser iPhone-App-Photoverfremdungen solide hin, die 0.5er-Version von AnalogColor macht zumindest bei meinem MacPro mit dem Prozessor etwas Mucken und bremst andere Prozesse aus, Marc hat aber beispielsweise keine Probleme damit. Das minimalistische Interface ist gewöhnungsbedürftig, aber funktional – da das Programm Bilder auch kleinrechnen kann, eignet es sich sicher, um unterwegs schnell ein paar Photos für ein Blog zu «trashen». Wer mehr Kontrolle will und mit Photoshop arbeitet, dürfte sicher mit einem Plug-In wie Exposure 3 von Alienskin besser beraten sein, dass deutlich mehr Optionen bietet (allerdings keinen Lichteinfall simuliert, leider), mit 250 Dollar aber auch deutlich teurer kommt und in Sachen s/w-Konvertierung neben nik Silver FX das sicher beste Werkzeug derzeit darstellt.

Wer allerdings eine Photoshop-freie Lösung für kleines Geld sucht, die quick und dirty Photos etwas spackiger aussehen lässt, ist hier sicher gut beraten, die kleine Anwendung macht für den Preis durchaus Spaß, auch wenn Sie sich so gar nicht nach «Apple» anfühlt.

Die Frage ist natürlich, ob man diesen Lomo-Style-Look langsam aber sicher nicht satt hat, wenn dank Hipstamatic und Co inzwischen nahezu jedes dritte Photo vom iPhone so aussieht (wie hier ja auch, ich liebe Hipsta). Was beim iPhone auch elementar Sinn macht – es IST ja (auch beim 4er) nach wie vor eher eine Spielzeugkamera, sich auf dem Desktop mit 21-MP-Photos aber irgendwie zunehmend seltsam und unspontan anfühlt. Der Unterschied ist wahrscheinlich, dass Tools wie Hipsta den Effekt direkt anwenden und man nicht nachträglich etwas ändert, man also tatsächlich mit einer ToyCam photographiert (auch wenn sie nur emuliert ist).

7. Dezember 2010 15:54 Uhr. Kategorie Technik. Tag , . Eine Antwort.

Writer for iPad

hd schellnack

Die Informations Architects legen eine einfache, in ihrer Reduktion etwas an Ommwriter erinnernde Textverarbeitungs-App für das iPad vor. Anders als das vor Features strotzende Pages ist Writer eine extrem reduzierte Software, die wenig mehr bietet als eine Tastatur und ein relativ schmales Textfenster. Nur eine Schriftart, keinerlei Formatierungsmöglichkeiten und ein entsprechend als einfaches .txt gespeichertes Dokument wirken auf den ersten Blick in der auch ansonsten eher spartanisch gestalteten Umgebung wenig vielversprechend. Dass es der Writer aber durchaus in sich hat, zeigen nicht nur Details wie die ständig sichtbare Textmenge und (geschätzte) Lesezeit (man ahnt hier, wofür iA den Writer eigentlich intern entwickelt haben könnten), sondern auch das erweiterte Keyboard und die nahtlose Dropbox-Integration. Die Tastaturergänzung macht endlich möglich, auch ohne Touchscreen zu bestimmten Stellen im Text zu springen, entweder um ganze Worte oder zeichenweise, außerdem lassen sich Klammern einfacher eingeben und Zeichen wie Gedankenstriche oder Doppelpunkt sind etwas näher gekommen. Unschön ist, dass die “-Taste leider nicht wie die eigentliche echte Tastatur von Apple bei längerem Gedrückthalten Zugriff auf anderen Anführungszeichen wie «» oder „“ gibt, sondern wirklich nur die (falschen) Zollzeichen liefert. Un ob ich wirklich ein Semikolon direkt zugreifbar habe, sei mal dahingestellt – die Coder dürfte es aber enorm freuen, denn als reiner txt-Editor dürfte sich Writer auch als fixer Editor nutzen lassen (dafür fehlt allerdings eigentlich noch eine FTP-Anbindung).

Da im reinen .txt gespeichert wird, ist Writer hochgradig kompatibel und eignet sich ideal, um etwa Blogtexte vorzuschreiben – egal, wo man danach ist, sie sind ja via Dropbox universal verfügbar und lassen sich in WP oder Ecto o.ä. in die finale Form bringen (ich warte ja immer noch auf Ecto fürs iPad, aber da selbst das MacOS-Ecto kaum weiterentwickelt wird, darf ich da wohl lange warten :-D). Das bewusst minimalistische Interface könnte im weiteren Verlauf sicher noch das ein oder andere Detail, vielleicht zumindest auch eine dezente Schriftauswahl (so schön die Monospace gewählt ist) brauchen, und wenn man schon am Keyboard herumdoktort, wäre es natürlich grandios gewesen, Umlaute ohne das nervige Tasten-Gedrückt-Halten verfügbar zu machen (nach wie vor DIE nervigste Sache an der iPad-Tastatur, die zumindet im Querformat entspannt mehr Zeichen unterbringen könnte), aber für eine 1.0er-Version ist der iA-Writer eine schöne, einfache Sache, um onthego schnell Texte festzuhalten und dabei etwas netter zu bedienen als Evernote (das ich bisher genau hierfür verwendet habe). Insofern Dank und Glückwunsch an die Kollegen von den information architects, die hier weiter den erfolgreichen Umzug vom Web zum Pad machen!

Update: Der Writer ist leider noch etwas buggy. Bei mir gibt es gelegentlich Probleme beim Wechsel von Horizontal zu Senkrecht, wenn der Umbruch sich nämlich nicht ändert und man plötzlich in einer viel zu langen Zeile schreibt. Die Lupe funktioniert nicht sauber, bei mir wird der Cursor nicht angezeigt. Und die Sondertasten über dem eigentlichen Keyboard sind stumm, was seltsamerweise enorm irritiert. Bemerkenswert positiv ist der superschnelle Start des Writer.

22. September 2010 11:17 Uhr. Kategorie Technik. Tag , , . Keine Antwort.

And the Cloud goes wild…

hd schellnack hd schellnack

Die neue mobileme-Kalender-Beta zeigt sehr deutlich, wie ernst es Apple mit Cloud-Applikationen ist. Nicht nur die letzten Stellenanzeigen, das fast clandestin verwirklichte Musikstreaming via iDisk und andere Details deuten darauf hin, dass die Firma, die derzeit neben Google vielleicht die meiste Power hat, webbasierte Applikationen durchzudrücken, den Blick klar nach vorn richtet. Der meCal ist die erste Webapp, die die Desktop-Version ebenso wie die schwächelnden iPhone/iPad-Versionen deutlich übertrifft. Es gibt einige sehr klare Mängel bei den Einstellungen, da ist eine «echte» lokale Software immer noch weit voraus, aber das User-Interface macht einfach Spaß. Man mag durchaus kritisieren, dass Apple aus irgendeinem Grunde das simple, schöne verlässt und hier anfängt, «echte» Medien zu simulieren – wie bei den liebevollen, vielleicht aber etwas sinnfreien Details wie abgerissenen Kalenderkanten oder Wire-O-Bindung. Aber abgesehen davon macht die Webapp mehr Spaß als die Desktopversion und ist in den Details durchaus Nutzerfreundlicher, etwa in der Monatsnavigation oder bei der viel besseren Nutzung der bisher recht sinnlosen Tages-Darstellung. Im Bereich «Woche» nehmen sich die beiden Versionen wenig, aber «Tag» ist eindeutig besser als in OS X selbst gelöst. Ganz zu schweigen davon, dass die Online-Version nicht nur den Look der iPad-version absolut übernimmt, diesen aber endlich auch sinnvoll macht, indem man Einträge per Drag’n'Drop verschieben kann, neue Einträge mit einem Doppelklick anlegen kann und so weiter. Was nicht geht ist Verdopplung eines Termins via Alt+Ziehen, und natürlich gibt es keine rechte Maustastenfunktionalität – aber für eine reine Internetanwendung lässt der neue Kalender, ebenso wie das bearbeitete Mailmodul, andere Webapplikationen, oft sogar solche aus Flash-Basis, etwas alt aussehen. Bleibt zu hoffen, dass Apple überhaupt noch Lust hat, die iOS und OS X Applikationen anzugleichen und nicht in Zukunft nur noch auf die Wolke im Web setzt. Denn bisher ist vor allem in Europa die grenzüberschreitende schnelle Internetanbindung beileibe noch nicht so, dass ich mit einem mobilen Client nur noch online arbeiten wollen würde. Und auf dem Desktop fühlt sich «echte» Software immer noch besser und schneller an. Dennoch beweist Apple hier beeindruckend, dass auch ohne Flash/AIR (wo ja zB nike+ schön zeigt, wie so etwas aussehen kann) produktive (und attraktive) Softwarelösungen online möglich sind, die ohne echtes Betriebssystem im Hintergrund funktionieren. Bis wir wirklich alle nur noch «in the cloud» arbeiten dürften es noch einige Jahre sein, aber hier beginnt das erste Mal – viel mehr als etwa bei Acrobat.com oder iwork.com – das Gefühl, die Vorstellung von Applikationen, die keinen Rechner mehr brauchen, sondern universell auf jedem Client laufen können, weil sie vollständig online gehostet sind, seien in greifbare Nähe gerutscht.

5. August 2010 11:10 Uhr. Kategorie Technik. Tag , , , . 3 Antworten.

Amplitube

hd schellnack

Amplitube von ik multimedia ist eine Art Gitarren-Komplettlösung für iPhone und iPad. Ähnlich wie das AmpKit von Peavey liefert Amplitube ein Emulation verschiedener Verstärker, die mit verschiedenen Boxencombos gefahren und sogar mit zwei verschiedenen Mikrophontypen abgenommen werden, sowie die Kombination von bis zu vier Fußpedalen aus insgesamt 11 Effekten von Verzerrung bis Delay (mit optionalem Beat-Sync). Die fünf Amps decken das übliche Spektrum von Fender über Marshall bis Mesa ab und die Simulation ist überraschend gut gelungen – der Federhall des Fender klingt fast genauso miserabel-legendär wie im Original. Die Stompboxes sind berühmten Vorbildern nachempfunden, der Overdrive ist etwa eindeutig von Ibanez, ansprechend im Retrolook gestaltet und klingen ohne Amp fast besser und sauberer als mit Verstärker-Emulation dahinter. Zusätzlich bietet Amplitube einen Tuner, ein Metronom, die Möglichkeit, zu bestehenden Songs zu spielen und Presets ohne Ende, um eigene Effektkombinationen zu speichern. Um den Gitarrensound ins iPhone oder Pad zu kriegen, braucht man das iRig, das das Signal des Kopfhörerausgangs/Mikroeingangs splittet und ein verstärktest Gitarrensignal einspeist, während aus dem Ausgang sauberst der digital bearbeitet Gitarrensound kommt. Das iRig schlägt mit 30 Euro zu Buche, die vollausgestatteten Apps mit jeweils etwa 16 Euro, leider ist Amplitube keine Universal App, so dass für Pad und Phone jeweils bezahlt werden muss. Man kann auf dem Pad aber auch die iPhone-Version laufen lassen, der Sound und die Anzahl von Effekten/Amps ist absolut identisch, nur der Bildschirm wirkt aufgeräumter und man kann schneller gleichzeitig auf alle Fußpedale und den Amp zugreifen.

Puristen werden Amplitube fürs iPhone genauso hassen wie alle anderen digitalen Emulationen analoger Effektgeräte – und sicherlich zu Recht. Auf der Plus-Seite ist es phantastisch, einfach die Gibson an sein Telefon zu hängen und losspielen zu können, sich dabei frei bewegen zu können, oder im Bett zu liegen, ohne an ein großes Effektgerät-Bodenpedalset gebunden zu sein. Das freie Herumspielen mit Amps, Sounds, Effekten ist völlig intuitiv und bedarf keinerlei Einarbeitung, so dass man unmittelbar loslegen und Spaß haben kann, der – etwa bei dem über die Neigung des Phones gesteuerten Wahwah – auch schnell aufkommt.

Getrübt wird der Eindruck von dem aus meiner Sicht mitunter – verglichen mit meinem Zoom-GFX8-Bodenpedal (das zugegebenerweise auch einen Tick teurer ist) – ziemlich muffeligen Gesamtklang, der weder in Bass noch Höhen so richtig überzeugen kann. Ohne die Amp-Simulation wird es deutlich besser, auch das Rauschen reduziert sich etwas. So seltsam es klingt, einen Hauch weniger Authentizität hätte ich mir hier optional gewünscht. Während der mittenlastige Gitarrensound im Mix oder in einer Bühnensituation sicherlich goldrichtig ist und gerade bei den vielen Rock- und Metalamps starke Bässe und Höhen eher deplaciert wären, wäre es unter Kopfhörern sicherlich auch schön gewesen, einen möglichst breiten, fetten Sound zu haben, der weniger «live» klingt und mehr Druck hat.

Womit wir beim zweiten, vielleicht subjektiven Problem sind. Unter Kopfhörern fällt extrem auf, wie monophon die Effekte sind. Es gibt ein winziges bisschen Raum-Ambience, aber das wars. Chorus, Flanger, Delay – alles Mono. Was ebenfalls natürlich im Kontext einer Bandeinspielung sehr richtig ist – Gitarre ist ja nun mal eher ein Mono-Instrument – aber beim Üben oder Komponieren schnell eher den Spaß verdirbt, weil eine einzelne Gitarre einfach sehr viel schöner, weicher, spannender klingt, wenn man mit Stereochorus und einem Cross-Delay spannende Raumeffekte hinkriegt und alles einfach etwas satter, dreidimensionaler klingt. So wie Nanostudio selbst aus an sich recht mageren Analog- oder FM-Synthsounds mit etwas X-Delay und spannenden Flanger/Chorus-Effekten verblüffende Lebendigkeit erzeugt, könnte Amplitube mit an sich wenig Aufwand (sowohl iPhone als auch Pad sind absolut in der Lage, prozessorseitig auch aufwendige Stereoeffekte ohne Latenzprobleme abzuliefern) hier nochmal richtig an Spaßfaktor und Nutzwert gewinnen. So wie es jetzt ist, wird der etwas flache und «enge» Sound nach einer Weile etwas langweilig und man greift doch wieder zum Zoom, weil die Bedienung zwar viel komplizierter und spaßfreier ist, die Sounds am Ende aber räumlich viel überzeugender und satter wirken. Und das müsste nicht sein – das iPad dürfte mehr Prozessorleistung haben als das GFX-8, vom iPhone 4 ganz zu schweigen (das ja noch einmal mehr Arbeitsspeicher mitbringt).

Ebenso wünschenswert wären vielleicht komplexere Effekte, wie sauberes Pitchshifting, Ringmodulation, ein eigener und besserer Hall, Harmonizer und unbedingt ein guter Compressor, der hier leider komplett fehlt – es gibt nur ein recht maues Noise Gate. Der Ansatz, sich nur auf monophone Stompboxes zu beschränken und sozusagen absolut «retro» zu sein, macht bei einer 1.0-Version Sinn, aber auf Dauer wäre es phantastisch, mehr der Möglichkeiten der Desktop-Fassung von Amplitube3 auch mobil zu erleben. Es müssen gar nicht so viele Amps und Effekte sein, aber der Schritt von reiner Stompbox zu Studioeffekten wäre grandios. Niemand kann erwarten, dass man die Power der Desktop-Version für 15 Euro mobil liefert, aber ein satterer Stereosound wäre wirklich deutlich befriedigender.

Und wenn wir bei Wünschen sind, wäre entweder ein einfaches Phrase-Sampling zum «Einfrieren» von Gitarrenläufen, zu denen man dann live weiterspielen kann, grandios. Noch besser wäre sogar eine einfache 4-Spur-Aufnahmemöglichkeit, wie sie andere Apps ja bereits preiswert (aber eben separat) anbieten, um sozusagen live ein kleines Gitarrenensemble aufzubauen. Für schnelle Notizen und etwas Spaß unterwegs wäre das natürlich großartig.

Kurzum, Amplitube ist ein grandioser Schritt in die richtige Richtung und vor allem auf dem iPhone ein Riesenspaß – ein solches Fußpedalarsenal in der Hosentasche zu haben ist die 15 Euro immer und unbedingt wert -, hat aber noch ein riesiges Potential, ausgebaut zu werden. Mit Blick auf die Power des großen Amplitube3-Bruders darf man hoffen, dass IK Multimedia nach und nach mehr Möglichkeiten nachliefert (z.B. als In-App-Kauf) und aus Amplitube ein echtes Arbeitstier macht. Aber selbst die 1.0er Version macht deutlich, dass hier das musikalische Gegenstück zur Hipstamatic-Kamera an Potential und Erweiterungsmöglichkeiten schlummert. Man darf gespannt sein, ob am Ende Ampkit von Peavey oder Amplitube das Rennen machen und sich fragen, warum Roland/Boss diese Chance offenbar komplett verschlafen…

23. Juli 2010 10:00 Uhr. Kategorie Technik. Tag , , . Keine Antwort.

Nanostudio ist da

hd schellnack hd schellnack

Die erste digitale Musikstation fürs iPhone (leider nichts für das iPad) ist da. Nanostudio kombiniert vier extrem editierbare polyphone Synths, eine Drummachine, einen Sequenzer, eine Mixing-Einheit, Effekte zu einer Art abgespeckten Cubase/Logic, komplett mit Patternediting und Pianoroll, mehreren Bus-Effektsektionen, Delay, Flanger, Chorus, Distortion, Touchpads für Cutoffs und LFO und und und zu einer kompakten Package, mit der man aus meiner Sicht erstmals halbwegs realistisch und ohne esoterische Interface-Tricksereien arbeiten kann. Die 128 Werksounds machen bereits klar, dass der Synth sehr mächtig ist für ein Telefon, die Editiermöglichkeiten wollen schier gar nicht abreißen, man wünscht sich im Grunde nur noch eine gute externe Tastatur (wie das Akai 25 oder ION, nur mit mehr Tasten und kleiner). Selbst Akais bereits sehr vielversprechende Synthstation sieht gegen Nanostudio mehr als alt aus, aus den vier Eden-Synths, die von analogen Sounds über FM-Synthese bis hin zu durch Filter geprügelte Samples eigentlich alles zulassen, was man sich wünschen kann und sehr umfangreiche Hüllkurven-Soundmodifikationen zulassen und obendrein auch noch einzeln komplett eigene und sehr gute Effekte zulassen. Die Drumsektion ermöglicht eigene Samples und auch hier einfaches Editieren der Sounds, sowie drei Bus-Effekte, die einzelnen Pads einfach zugeordnet werden können. Pragmatisch sehr gut bedienbar, ist das Nanostudio deutlich mehr als nur eine einfach «Scribble»-Möglichkeit für musikalische Ideen, sondern eingeschränkt tatsächlich in der Lage, ganze Songs abzuliefern. Die Einschränkungen sind dabei gegenüber der erdrückenden Optionenvielfalt von Programmen wie Logic fast wohltuend – es ist fast wie einfaches Vierspurrecording mit einer Drummachine und ein paar einfachen Synths, mit denen man schnell und dreckig seine Songs machen kann. Das die App dabei durchaus sehr komplexe Ergebnisse zulässt und man spielerisch und einfach an ganz eigene Sounds kommt, Nanostudio zum Experimentieren also förmlich einlädt, ist ein Bonus. Da es Nanostudio im Betastadium auch als Mac/Win-Desktop-Applikation gibt und Nanosync einen Austausch von Samples und Mixdowns gibt, kommen wir spürbar Schritt für Schritt der Phase näher, wo Apples Mobilgeräte echte Musikoptionen werden. Was noch fehlt ist eine Art MIDI, eine Zusammenkopplung mehrere Apps im Multitasking, ein Dateistandard für Austausch und Weitereditierung mit Desktop-Apps und so weiter. Aber es scheint fast nur noch eine Zeitfrage zu sein, bis es Ableton, Reason, Garageband und Co auch für iPhone oder besser iPad geben wird. Bis dahin ist Nanostudio für 12 Euro aber mehr als eine gute Möglichkeit, unterwegs etwas Musik zu produzieren – die Musikapps verlassen hier erstmals absolut greifbar das «Spielzeug»-Flair. Der einzig offene Wunsch ist eigentlich, dass Blipinteractive das Ganze möglichst schnell fürs iPad umstrukturieren, damit man mehr Tastatur hat und in dem etwas frickeligen Sequencer-Editiorfenster besser arbeiten kann. Ansonsten eine reife Leistung, die wieder zeigt, dass am iPhone weniger das Gerät an sich entscheidend ist, sondern die Kreativität der App-Entwickler.

22. Juli 2010 10:59 Uhr. Kategorie Technik. Tag , , . Keine Antwort.

CS5 Erste Eindrücke

hd schellnack

Installation
Die Installation fühlt sich nach wie vor ausgesprochen seltsam an. Man startet die DMG, klickt auf das CS5-Icon, ein neues Ordner-Fenster mit «Install» öffnet sich und erst nach klicken hierauf geht es wirklich einigermaßen los. Ich kann verstehen, dass Adobe auf der Windows wie auf der Mac-Plattform ein ähnliches Benutzungserlebnis herbeiführen will, aber der Preis dafür ist, dass es sich auf beiden Plattformen nicht «nativ» anfühlt. Man klickt auf OS X mehrfache Subroutinen, bevor die Installation überhaupt startet, das systemübliche drag’n'drop-Installieren gibt es nicht. Statt dessen setzt Adobe auf eine eigene Installationsroutine, im Adobe-Air-üblichen Look, in dunkelgrau und blau gehalten, die nicht nur bizarr lange dauert, sondern dem Nutzer das Gefühl gibt, sein Betriebssystem komplett verlassen zu haben. Abgesehen davon, dass solche eigenen UIs eine Menge Arbeit darstellen und extrem anfällig für Veränderungen sind, während Standardroutinen einfach immer up-to-date aussehen, weil sie an das jeweilige UI des Betriebssystems andocken können, frage ich mich, wieso Adobe als fast letzte Firma der Welt auf einer eigenen Sub-Oberfläche besteht, anstatt auf GUI-Standards aufzusetzen. In Sachen Usability ist das ein Flop.

Photoshop
Was lange, lange, lange währt, wird endlich wahr. Während das deutlich preiswerte und nicht so viel leistungsschwächere Tool Pixelmator bereits seit langem 64bit bedient und dabei unglaublich schnell ist und sehr große Dateien verdauen kann, hat es bei Adobe halt etwas länger gedauert, die 4-GB-Grenze zu sprengen.
Photoshop fühlt sich in 64bit greifbar schneller und reaktiver an und kann endlich seinen großen Speicherhunger besser bedienen. In Zeiten, wo die meisten Rechner für Bildbearbeitung 8-32 GB RAM haben, ist das auch mehr als überfällig.

Vielleicht fühlt es sich aber auch nur schneller an, weil noch keine Plug-Ins (außer Exposure 3 von Alien Skin und Adjust 4 von Topazlab) unter 64bit laufen, alle anderen Plugs lassen sich nur nutzen, wenn man im 32bit-Modus startet. Das ist irgendwie ärgerlich und man sollte einen Weg gefunden haben, um Plugs als 32-bit-Subapplikation laufen zu lassen. Also laufen derzeit zwei Photoshop-Versionen auf meinem Rechner.

Die neuen Tools wie Formgitter und inhaltssensitives Füllen sehen auf den ersten Blick vielversprechend aus – aber auch hier wird nur die Praxis zeigen, was sie taugen.
Das inhaltssensitive Füllen scheint nach einigem Probieren eher Matsch und Chaos als brauchbare Ergebnisse zu bringen… man hat ein Objekt meist schneller weggestempelt als es hiermit zu entfernen. In einigen kritischen Stellen vorsichtig angewandt, waren die Ergebnisse aber brauchbar. Der Puppet Warp wirkt hochkomplex und keineswegs mit «Verflüssigen» zu verwecheln, weil hier nach «physiologischen» Regeln ein ganzes freigestelltes Objekt modifiziert werden kann. Ob das für andere Dinge als Arm/Bein-Verschiebungen und einfachste Animationen sinnvoll ist… abwarten.

Die verbesserte Kantenbearbeitung einer Auswahl ist beeindruckend. Ich glaube nach wie vor, dass sich im Grunde mit pixelbasierten Methoden kaum wirklich gute Freistellergebnisse erzielen lassen – am saubersten wirkt irgendwie immer noch das Pfadwerkzeug –, ist hier mit sehr einfachen Schritten gerade bei Haaren tatsächlich ein beeindruckendes Ergebnis zu erzielen, das sogar teilweise Farben aus dem Hintergrund entnehmen kann. Ein schlechtes Photo kann man so auch nicht retten, aber ein sauber photographiertes Objekt mit Flusen oder Haaren, die sich für «hartes» Freistellen nicht eignen, hat hier vielleicht eine Chance.

Die Objektivkorrektur muss ich mir noch in Ruhe ansehen – ich mache das meist direkt in Lightroom oder idealerweise in LensDoc. Inwieweit Photoshop hier leistungsstark ist und ob es genügend (passende) Objektive sowohl für die Canon5DII (was vielversprechend aussieht) als auch für die S90 (leider bisher nichts) gibt.

HDR machte bei den ersten Versuchen sowohl mit einzelnen Bilder und Fake-HDR-Toning als auch mit Serienaufnahmen keinen sonderlich guten Eindruck, da habe ich bessere Tools gesehen. Allerdings ist der Workflow von Bridge/Lightroom zu Photoshop geradezu genial einfach, vom RAW zum HDR ist ein Kinderspiel. Verwirrend ist, dass die HDR-Preview mit dem fertigen Ergebnis nicht unbedingt viel gemein hat. Bei den ersten Versuchen wirken Farben im Ergebnis zu satt, der ohnehin übertriebene HDR-Look einfach zu übermächtig. Mit etwas Feintuning lässt sich das hoffentlich besser verwenden.

Auch mit dieser Version führt das Photoshop-Team vorsichtige UI-Änderungen ein, etwa ein neues Zoom-Verhalten, das zunächst ungewohnt, nach einiger Einarbeitung aber extrem nützlich ist. Ähnlich wie das Pixelraster oder Preview-Effekt beim Stempel lassen sich alle diese Änderungen aber auch wieder deaktivieren. Wenn Adobe PS noch einige ästhetische Einstellmöglichkeiten verpassen würde (wie bei Lightroom oder bei Bridge), wäre PS wahrscheinlich eines der vielseitigsten Programme am Markt, das der Nutzer sich völlig an seine eigenen Bedürfnisse und Arbeitsprozesse anpassen kann, inklusive der Möglichkeit, komplett eigene Funktionspaletten zu erstellen.

Die in Extended deutlich gewachsenen 3D-Features habe ich noch nicht ausprobiert… ich habe aber bisher auch noch niemals in PS «dreidimensional» gearbeitet, da gibt es im Zweifelsfall bessere Werkzeuge.

Keine Frage – aus dem CS5-Paket hat sich bei Photoshop am meisten getan. Wie bei fast allen neuen Features einer Software, die so lange am Markt ist, darf man sich fragen: Braucht man das? Und die Frage kann sich nur jeder selbst beantworten. Die Schwäche von PS ist sicher derzeit, dass es mehr und mehr versucht, die eierlegende Wollmilchsau zu sein, während andere Programme in 3D, HDR, RAW-Processing einfach als Spezialisten deutlich besser dastehen.

Außerdem wird klar, dass das Interface etwa gegen das von Lightroom einfach altbacken und überarbeitungsbedürftig ist. Photoshop trägt den Ballast von zwei Dekaden im Gewand und das merkt man an allen Ecken und Enden, zumal die PS-Gemeinde Adobe jedes mal lyncht, wenn selbst völlig veraltete Routinen endlich mal abgeschaltet werden.

Indesign
Rein optisch ist in Indesign ebenfalls wenig passiert. Aber tatsächlich sind es diese kleinen UI-Änderungen, die das Upgrade sinnvoll machen. So ist es beispielsweise jetzt direkt über die Menüleiste möglich, Farben für Flächen und Konturen zu ändern (womit wir bei gefühlten zehn verschiedenen Methoden sind, dies zu tun), und die Software merkt automatisch, ob man einen Text markiert hat oder eine Fläche. Zwei Zeilen Text einfärben geht so viermal so schnell wie bisher. Die überarbeitete Ebenenpalette ist auf den ersten Blick verwirrender als bisher – obwohl durch Illustrator grundsätzlich ja vertraut – aber auch deutlich leistungsfähiger. Die neue schnellere Auswahl von Rahmeninhalten wird nach etwas Umgewöhnung ein echter Bonus sein.

Der PDF-Export im Hintergrund ist auch so eine Sache, die schon längst fällig war, immerhin kann Word schon seit fast zehn Jahren im Hintergrund drucken. UI-technisch ist das extrem schlecht gelöst, weil man zunächst denkt, gar keine visuelle Kontrolle mehr über den Export-Fortschriftt zu haben, bis man entdeckt, dass es unter Fenster > Hilfsprogramme > Hintergrundaufgaben eine Palette gibt, in der, wenn man sie nur breit genug aufzieht, ein Export-Balken erscheint. Den aber hätte man ganz charmant auch in der Fußleiste des Programmfensters unterbringen können. So fühlt es sich etwas unelegant an – was schade ist, weil das Feature an sich sehr gelungen ist, man kann endlich auch während langer Dokument-Exporte schon weiter arbeiten und sogar den nächsten PDF-Export starten. Es mag spät kommen, aber es kommt and god bless.

Die Modifikation von Seitengrößen in Indesign ist an sich keine Innovation, dtp tools hatten hier mit Page Control bereits seit CS3 gezeigt, wie einfach und effektiv das geht (wie sie auch seit langem zeigen, dass eine Photoshop-artige «History»-Palette mit Snapshots usw. funktioniert). Jetzt geht es endlich auch ohne Plug-Ins und es läuft anscheinend solide genug. Etwas ärgerlich finde ich, dass man direkt aus der Seitenpalette heraus nicht frei Seitengrößen ändern kann, sondern dort nur definierte Größen (auch selbstdefinierte) nutzen darf.

Die Mini-Bridge bringt eine aus Fotostation bei mir sehr beliebte Funktionalität nahtlos in die CS-Suite und dies sehr komfortabel: Über ein kleines Menüfenster kann man sich die Bilder eines Ordners in den verschiedensten Formen anzeigen lassen, ohne aus der Applikation zu Bridge o.ä. switchen zu müssen. Nicht so übersichtlich wie Bridge, nicht so komfortabel wie Fotostation (das aber gegen Bridge generell zusehends abstinkt), aber eine willkommenere Erweiterung von Bridge und bei bestimmten Projekten sicher extrem hilfreich.

Die neuen Auswahltools finde ich ad hoc erst einmal verwirrend. Was bei den ersten Tests ganz prima war, wird beim Arbeiten in komplexen Layouts sehr schnell auch sehr nervig, weil man nie ganz weiß, ob man nun den Rahmen schiebt oder doch schon aus Versehen wieder ins Innere des Rahmens gerutscht ist und nun den Content herausschiebt. Wahrscheinlich Übungssache. Aber manchmal wünscht man sich dann doch wieder die alte Schwarzer Zeiger/Weißer Zeiger-Lösung zurück.

Die Möglichkeit, Text über Spalten hinweg zu setzen, ist so simpel wie überfällig und wird Magazinmacher und Broschürenlayouter mit vielen Zwischentiteln maßlos beglücken.

Die neuen Multimedia-Funktionen… da muss man sehen, was die Zukunft bringt. Adobe bereitet sich hier auf etwas vor – den Sprung zum animierten ePrint –, was leider auf einem der wichtigsten Trägermedien dieses Sprungs (iOS) mangels Flash-Support nicht funktioniert. Wenn Adobe nicht einen Trick findet, um in PDF völlig ohne jede Notwendigkeit eines Players Flash einzubetten (und sofern Apple dann nicht auch noch PDF ausgrenzt), ist die ganze Flash-Integration in CS5 eher für die Katz und Adobe setzt aufs falsche Pferd. Ansonsten wirkt es auf den ersten Blick seltsam, direkt in Indesign einfache Animationen usw zu machen und diese direkt nach SWF/HTML zu exportieren. Dürfte aber erleichtern, einfach schnell und integriert mit einem Werkzeug, die Interaktivität eines groben Website-Scribbles zu zeigen. Wobei ich die weniger und weniger in Indesign mache. Wobei man sehen muss, wie das Zusammenspiel mit Dreamweaver und eventuell auch mit Catalyst ist – es reicht ja, wenn man einen soliden und anschaulichen Dummy hinkriegt.

Was mir immer noch fehlt ist eine effektive, InCopy-lose Kooperation an einem Dokument im Team, aber auch Editierbarkeit per Browser durch den Kunden (einschränkbar), eine bessere Lösung für «formlosen» also fluiden/dynamischen Content, eine effektive und solide Datenbank-Lösung, die an MySQL andocken kann, aber auch an Excel uswpp (und zwar komfortabel, die meisten Plug-Ins sind hier ein Alptraum). Also Dinge, die das Publishing team- und kundenfreundlicher sowie webkompatibler machen. Und eine ganze Menge Details, von simplen Sachen wie einer glyphen/kontextsensitiven Unterstreichung, bessere Trennung, besseres Ligaturhandling und und und… all sowas steht auch noch auf der Wunschliste. Indesign entwickelt sich in eine neue Richtung, und die alte Richtung… das banale gute alte Printdesign… ist nicht einmal ansatzweise perfektioniert.

Bridge
Der Bildbrowser, früher ein wahrer Alptraum, mausert sich zu einem mehr als alltagstauglichen Tool, das zusätzliche Werkzeuge wie etwa FotoStation eigentlich für die meisten Designer überflüssig macht. Neue Export-Funktionen, die MIni-Bridge, ein spürbar aufgeputschtes Tempo, der nach wie vor unschlagbar modulare Arbeitsbereich und viele andere Detailverbesserungen haben Bridge vom Ärgernis zum Rundum-Werkzeug gemacht, das zwar immer noch fast allergisch langsam auf EPS reagiert (eigentlich ja ein Adobe-Hausformat, mit dem FotoStation sehr viel besser zurechtkommt), ansonsten aber fast unersetzbar geworden ist. Ich würde mir fast wünschen, Bridge und Lightroom (und evtl. Photoshop) würden verschmelzen.

Illustrator
Ich arbeite selten mit Illustrator, vielleicht weil ich Freehand-User war und mit Illustrator nie war wurde. Bis heute finde ich, dass Illustrator einfach nahtlos in Indesign eingebaut sein sollte und fertig, und ich denke, irgendwann wird Adobe das auch so handhaben. Man muss aber klar sagen, dass Illustrator sich mit CS4 und 5 gemacht hat – der ehemaligen Schnecke ist ein passables Arbeitstempo beigebracht, es gibt endlich unterschiedliche Seitengrößen (wenn auch seltsam gelöst), Farben und Pinsel sind etwas freundlicher und vielseitiger gelöst, man kann endlich in Perspektive zeichnen, und es gibt einfachere Tools zum Editieren von Beziers. Anders gesagt: Illustrator ist da angekommen, wo FH und selbst CorelDraw schon vor Jahren waren. Aber das durchaus in einer eleganten und überzeugenden Art. So sehr, dass man fast Lust hat, sich endlich mal mehr mit Illustrator zu beschäftigen.

Soweit der erste Eindruck. Flash/Dreamweaver und Co.sind nicht so meine Werkzeuge, auch wenn sie natürlich installiert sind – aber ich konzeptioniere Websites, Programmieren ist nicht mein Bereich, das können andere deutlich besser. Marian klang recht begeistert von Flash, Catalyst klingt grundsätzlich nach dem Flash-für-Non-Action-Script-Menschen, das ich seit Jahren von Adobe sehen möchte (also müsste ich es ja mal antesten), und Dreamweaver ist eh nicht mein Ding, aber wenn es jetzt CSS besser unterstützt, kann man es ja noch mal ansehen. Ich hätte immer noch gern ein Programm, das so intuitiv wie iWeb oder Indesign ist, aber deutlich mehr Power hat und dem Programmierer danach nicht wieder bei 0 anfangen ließe. Aber ich denke, die Zukunft ist fast eher, Sites direkt programmierend zu entwerfen, das wird ja dank neuer CSS-Features immer naheliegender, direkt vom Wireframing ins Coding zu gehen.

CS-Review klingt nach einer guten Idee, die sich hier leider aus verschiedensten Patchwork-Flicken zusammensetzt (Adobe.com, Browser-Lab), die alle etwas unreif aus dem Adobe-Labor zu torkeln scheinen und auch nicht einwandfrei laufen (CSReview hat bisher bei mit Indesign bei jedem Start der Funktion zum Absturz gebracht). Der cloudbasierte Austausch mit Kunden ist ein hoch wünschenswertes Projekt, auch wenn PDF dazu ein gruseliger Zwischenschritt ist. Ich will meine Indesign hochladen und der Kunde soll in von mir definierten Umfang Text- und vielleicht auch einfache Bildmodifikationen machen können. Dazu wäre eine Web-to-Print-Anbindung sinnvoll (Formulare und Textanbindung, die Datenbankbasiert in Layouts mündet). Gibt es alles einzeln, aber Adobe vertut hier die Chance, eine Art MobileMe für Designer – einfach zu bedienen, funktional, beim Kunden akzeptabel – zu etablieren. Und bitte gratis. Für CSReview noch einmal Geld nehmen zu wollen, wahrscheinlich 200 bis 300 Euro im Jahr, ist übrigens leider bizarr. Laßt das lieber den Bonus sein, der zum legalen Kauf motiviert, statt hier nochmals zuzuschlagen. Es nervt ohnehin, dass man immer und immer wieder für getrennte Cloud-Services einzeln Jahresgebühren zahlt (MobileMe, Evernote, Dropbox…)

Insgesamt fällt auf, das Adobe es immer noch nicht geschafft hat, den einzelnen CS-Komponenten ein gemeinsames Antlitz zu geben, geschweige denn hinter den Kulissen für Ordnung zu sorgen. Wo selbst billigste Softwares sich sauber in OS X installieren, veranstaltet Adobe in der Library ein kaum noch nachzuvollziehendes Chaos an Ordnern und Subordnern ohne jede Logik und Vernunft. Tastaturbefehle, Aktionen und andere Individualisierungen werden nicht von vorherigen Fassungen zu CS5 übernommen (nicht einmal als Option), nach der Installation beginnt eine wahre Orgie an Einstellungen, die man vornehmen muss, wie es bei keinem anderen Programm auf dem Mac der Fall ist. Die gleiche Funktion ist in jeder CS-Tochter irgendwie leicht anders gelöst, Tastaturkürzel sind ungleich, man hat nie das Gefühl in einer Software zu sein, sondern statt dessen werden mit Rücksicht auf User, die seit 1985 dabei sind, die ältesten Standards weitergepflegt, anstatt einen neuen, gemeinsamen Standard zu pflegen. Das Ergebnis ist, das ich eine Sache, die ich in Indesign mit verbundenen Augen tue, in Illustrator nur nach Konsultation der Hilfe-Funktion und Google sauber geschafft bekomme – bei zwei so fast deckungsgleichen Applikationen ein Horror. Dass Photoshop eine History hat, Indesign aber nicht, dass die Ebenenpalette in AI und ID jetzt zwar weitestgehend ähnlich, aber dafür völlig anders als in PS ist, ist doch undenkbar (übrigens fühlt sich auch die Tatsache, dass bei PS auf einer Ebene immer nur ein Objekt sein kann, auch antiquiert an, es wäre revolutionär, wenn ich mit Pixeln so arbeiten könnte wie in AI mit Objekten – mehrere pro Ebene, mehrere Ebenen, völlig frei, ein Ende der 700-Ebenen-PSDs). Adobe braucht dringend ein Großreinemachen in Sachen Interface-Design, Useability und Nutzerfreundlichkeit.

Das Fazit ist eigentlich, dass CS5 ein herausragendes Upgrade wäre, läge der Preis nicht bei um 1000, sondern bei 200 bis 300 Euro. So aber hat man das Gefühl, für eine Menge Bugfixes, für ein immer noch unausgegorenes UI und für kleine, eigentlich eher hinter der Kommastelle liegende Verbesserungen sowie ein paar mehr oder weniger nützliche Features doch arg zur Kasse gebeten zu werden. In dieser Sicht – wieder einmal – fühlt sich Adobe alt an. Es ist eine der letzten wirklich teuren Softwares, eines der letzten Mega-Pakete, der Download ist teurer als die DVD-Box, das Interface ist (immer noch) aufs gruseligste ins Deutsche übersetzt (diesmal so buggy, dass IndesignShortcut-Sets aus CS4 teilweise in der deutschen Version von CS5 nicht laufen, weil Tastenbezeichnungen MIT übersetzt wurden (Strg wurde zu Befehl, z.B.). Adobe fühlt sich an wie ein Dinosaurier – und man wird das Gefühl nicht los, ein Befreiungsschlag täte der Firma gut. Indesign konnte sich gegen Quark so gut behaupten, weil Adobe seinerzeit die Idee Layoutsoftware gegenüber Pagemaker komplett neu gedacht und das alte Programm (weitestgehend) eingestellt hat. Das gleiche täte den Photowerkzeugen und vor allem auch den Web-Tools von Adobe sehr sehr gut. Man sollte überlegen, ob es nicht sinnvoll wäre, einige der Programme zu kombinieren oder sogar so modular zu werden, dass man sie ALLE wirklich zu einer Suite macht… der Anwender würde dann in nur noch einer Oberfläche arbeiten, ganz unabhängig zunächst von der Frage, ob er Print oder Web macht, und Bildbearbeitung, RAW-Workflow, Beziérkurven, aber auch Animation und Programmierung würden modular in objektbezogen zugeladen. Die modulare Struktur würde den Code einfach halten, das Programm trotz enormen Umfangs schmal… und im Grunde könnte man sogar das Vertriebsmodell revolutionieren, weil man sozusagen «In App» dazukaufen kann, was man braucht. Wichtiger aber: Von der ersten Konzeption bis zur Programmierung einer Site, vom ersten RAW bis zur druckreifen PDF alles unter einem Dach. Das wäre dann auch eine Suite, die den Namen verdient und auch den horrenden Preis von 3000 Euro für die DesignPremium-Version (immerhin teurer als ein durchschnittlicher iMac und nicht viel billiger als ein MacPro) rechtfertigen.

So, wie es derzeit ist, kann ich jeden verstehen, der nur noch jede zweite Version upgraded, weil die Sprünge einfach zu marginal ausfallen – und damit bedroht Adobe sich eigentlich selbst. Die Zeit wäre nach dem desaströsen Chaos, das die Fusion mit Macromedia bis heute bewirkt, reif für einen kompletten «Relaunch» des Creative Suite zu einem besseren, moderneren Produkt. So gut die Suite – die ja mehr eine «Anthology» ist, eine lose Zusammenstückelung von Software-Komponenten, die kaum wirklich miteinander verbunden sind – heute ist, die Herausforderung für die Zukunft ist nicht, noch einen Photoshop-Trick mehr zu erfinden und als das neue Schwarz anzupreisen, der Trick ist, eine integrativere und mächtigere und zugleich einfachere Gesamtlösung für das Design für morgen anzubieten, das nicht mehr ganz Print, aber eben auch nicht mehr ganz Web sein wird. Und mit der Gestalten dann auch in Zukunft eben noch einmal einen Tick mehr Spaß macht…

6. Juli 2010 20:53 Uhr. Kategorie Technik. Tag . 3 Antworten.

Flash Gordon and the Apple of Doom

hd schellnack

Ich wüßte zu gern, was Adobe Steve Jobs getan hat, dass er jetzt auch noch – offenbar nervös werdend angesichts der lauter werdenden Kritik an Apples Umgang mit Flash auf dem iPhone/iPad und anscheinend auch im Angesicht des neuen Flash 10.1-Betas – sogar einen offenen Brief schreibt, um Adobes Online-Technologie zu attackieren.

Jobs Kritik an Flash:

1) Offenheit. Jobs kritisiert, das Flash ein geschlossenes System ist. Was natürlich nicht stimmt – es gibt zig Tools, mit denen sich Flash-Content erzeugen lässt. Während ich selbst auch denke, Adobe hätte gut daran getan, die Software in ein OpenSource-Projekt umzuwandeln und selbst eben nur die besten Editor-Tools anzubieten, wirkt diese Kritik etwas bizarr von einer Firma, von deren iPods man Musik kaum jemals wieder runterkriegt (außer mit speziellen Softwares) und deren iPhone man förmlich knacken muss, um seine Funktionalität voll ausreizen zu können. Niemand darf sich weniger über «closed systems» beschweren als Apple, die eines der wasserdichtesten Systeme schlechthin anbieten mit iTunes und iPhone/iPad. Sein Argument, dass alles, was mit dem Web zu tun habe, «offen» sein solle, ist fast unwirklich bei der Firma, die den Weg dafür ebnet, an sich unbezahlte Web-Inhalte auf der iPhone-Plattform zu kommerzialisieren.

2) H.264 ist doch super. Anstatt Flash-Video könnte man doch auch prima das von Apple preferierte H.264-Codec benutzen. Mit der gleichen Logik kann das iPad/iPhone Formate wie AVI nicht, die ja auch kaum benutzt werden. Die Tatsache, dass die Anbieter unter dem Druck von Apple tatsächlich auf H.264 umstellen, ist eigentlich eher das unglaubliche. Wie kann man einerseits ein «offenes Web» fordern und andererseits vorschreiben, welche Codecs denn «die richtigen» sind.

3) Sicherheit/Batterie/Leistung. Hierzu müsste man sich Flash 10.1 genauer ansehen, für den alten Player trifft das absolut zu – aber anstatt zu nörgeln, sollte man nicht einfach mit Adobe zusammenarbeiten um Flash für die iPhone-Plattform funktional aufzustellen? Keine Frage, Adobe hat seit einiger Zeit auf OS X Performanceprobleme und kommt mit Apples Sprung auf 64 bit nicht mit, wechselt erst jetzt mit CS5 auf Cocoa und so weiter. Dieser Punkt ist bisher absolut richtig – sinnvoll wäre aber, Adobe ins Boot zu holen und zu unterstützen, vielleicht sogar zu motivieren, die Flash-Technologie zu öffnen. Wenn es nur um mangelnde Sicherheit und Leistung geht, sollte Apple sich mal ein paar eigene Angebote (*hust* Mobile.me *hust*) ansehen und im eigenen Stall mit dem Flammenwerfer kehren.

4) No Touching please. Ist seit Flash 10.1 eigentlich auch kein Thema mehr, da 10.1 multitouchfähig ist, wie viele Demo-Videos bewiesen haben. Und nebenbei, für Websites wäre das ja egal – ist keineswegs so, dass HTML für Touch ausgelegt wäre. Was sich per Maus bedienen lässt, lässt sich auch Finger bedienen, oder? Ich befürchte fast eher, dass reine Flash-Sites in der speziellen Art, wie Safari das Web abbildet, nicht sauber funktionieren würden (Zoom auf Textbreite usw) – aber das wäre ein sekundäres Problem, das man mit Adobe sicher lösen könnte. Wenn man nur wollte.

Was Jobs unterschlägt ist, das Flash qua Action-Script deutlich mehr ist als ein Animations- oder Video-Abspieltool (ich hab nie ganz verstanden, wieso sich FLV so durchgesetzt hat, kein sonderlich gutes Format), sondern eine hochkomplexe Umgebung, in der sich immersive und vom Absender grundlegend kontrollierbare Sites und Anwendungen erstellen lassen, die mit HTML so nicht näherungsweise zu verwirklichen sind. Welche Möglichkeiten Flash – voll ausgereizt – auf einem mobilen Device bieten würde, ist gänzlich offen, aber durchaus extrem vielversprechend. Aus Designersicht ist Flash so viel mächtiger als HTML, dass es fast unwirklich ist. Und ja, es gibt 90% miese Flash-Sites – aber ist das bei HTML nicht ganz genau so?

Auf der anderen Seite darf Adobe sich zu Recht Sorgen machen. Was Apple zurücklässt, hat schlechte Zukunftschancen. Dass der erste «neue» iMac keine Floppy mehr bot, führte zu einem Aufschrei, vor einigen Tagen hat Sony endgültig die Produktion eingestellt. Der CD und DVD dürften ähnliche Effekte bevorstehen. Auch bei Firewire und USB hat Apple Deutungsmacht. Bei HDMI/MiniDP wird man abwarten müssen, da steht Apples «No» einer massiven Front von Anbietern im Unterhaltungsbereich gegenüber. Für Adobe wird in Zukunft entscheidend sein, ob andere Anbieter Flash massiv unterstützen. Wenn Android – sicher in Zukunft die große Alternative zu OSX – Flash unterstützt und die Ergebnisse gut sind, kann Adobe mit der in der CD5-Suite extrem verankerten und leichten Erstellung interaktiver Inhalte sicherlich punkten. Apple dominiert mit dem iPhone und dem iPad derzeit den mobilen Markt wie selten ein Anbieter zuvor – aber das Beispiel Nokia sollte deutlich machen, wie schnell solche Vormachtsstellungen vorbei sein können. Und Google ist kein Leichtgewicht, im Gegenteil, ein Pad von Google dürfte eine große Alternative für viele User sein – gerade Windows-User -, die vielleicht keine Lust haben, ein Pad nur benutzen zu können, wenn sie gleichzeitig auch einen PC haben müssen, um es überhaupt erst einmal in Betrieb nehmen zu können. Ein völlig autarkes Gerät, das mit dem ersten Einschalten funktioniert, leicht zu bedienen ist und dem großen (aber unattraktiven) Angebot von Google eine ansehnliche Form verleiht, könnte Apples Arroganz schnell ein Ende bereiten.

Steve Jobs hat sich die Zeit genommen, einer Firma, die ihm in einem entscheidenden Moment seiner Karriere nicht geholfen hat, in die Seite zu treten. Mag sein, dass dahinter ein größerer Plan steckt – etwa, Adobe aufzukaufen -, mag sein, dass er Flash nur einfach wirklich nicht mag oder versteht. Mag sein, dass Jobs in Flash nur zu Recht ein Konkurrenzangebot zu Inhalten aus dem eigenen iTunes-Store sieht. Sicher aber ist, dass es schlechtes Karma ist, so zuzutreten und einer anderen Firma so offensichtlich und so rücksichtslos den Fuß auf die Gurgel zu stellen, vor allem angesichts der enorm wachsenden Frustration bei Adobe. Das ist einfach schlechtes Karma – Apple sollte sich im Moment des Erfolges großzügiger und offener zeigen und mit Adobe kooperieren. Zumindest aber sollte die Firma erwachsen genug sein, um die Käufer entscheiden zu lassen, ob man ein Plug-In laufen lässt oder nicht – es wäre ein einfacher Klick in den Systemeinstellungen des iPhone (FLASH OFF/ON), wie man ihn bei Bluetooth usw. ja auch hat. Denn Bluetooth ist auch eine Batteriefresser… aber ich kann es abschalten, wenn ich es nicht brauche und aktivieren, wenn es gebraucht wird. So wie es sein sollte. Bei OS X kann ich via Click to Flash ja auch entscheiden, wann ich auf Flash verzichten will und wann nicht. Das wäre mit Flash 10.1 und dem iPhone sicherlich auch zu realisieren. Alle logischen Argumente gegen Flash werden in dem Moment sinnlos, wo Jobs nicht argumentiert und mir als Nutzer die Entscheidungsfreiheit gibt, sondern dogmatisch eine existierende Webtechnologie mit 95% Verbreitung einfach kategorisch ausschließt. Für Entwickler und Programmierer ist Apple in den letzten Monat eine rätselhafte, frustrierende, bevormundende Erfahrung gewesen… hier wäre der richtige Zeitpunkt, sich zu öffnen, bevor es zu spät ist.

29. April 2010 15:58 Uhr. Kategorie Technik. Tag , , . 5 Antworten.

ComicZeal auf dem iPad

hd schellnack

Bitolithic, die Macher der genialen iPhone-App ComicZeal (dem besten Comicreader bisher) preschen vor und haben ComicZeal bereits für das iPad umgebaut, ohne das Gerät tatsächlich in den Händen zu halten. Sie stellen es auf ihren Blog vor – und es sieht absolut phantastisch aus. Ich denke mehr noch als Magazine und Zeitungen oder Bücher werden Comics auf dem iPad einfach Spaß machen, und dieser Preview zeigt, wie sinnvoll ein iPhone mit Mehr Bildschirm einfach sein kann. Vorbildlich scheint mir, dass es so klingt, als würde bei Bitolithic langfristig ComicZeal für iPad und iPhone als eine Applikation für beide Geräte verkaufen. Da ich die Idee nicht besonders mag, mit dem iPad für alle Applikationen in Zukunft doppelt zu bezahlen, finde ich diesen Ansatz einer kombinierten App wegweisend.

26. März 2010 12:08 Uhr. Kategorie Technik. Tag , , , . 2 Antworten.

Swanko Lab

swanklab.jpg

Die Macher der inzwischen ja hochgradig phantastischen Hipstamatic-App für das iphone haben etwas neues ausgeheckt: Swankolab. So wie die Hipsta eine alte Kamera emuliert, ahmt Swankolab offenbar eine komplette virtuelle Dunkelkammer nach, komplett mit Chemikalien, Timer und allen anderen Details. Dabei dürften am Ende wahrscheinlich auch nicht andere Effekte herumkommen als mit normaleren Filtern, das bearbeiten dürfte aber – eben analog zum Feeling der Hipstamatic – einen spielerischen Aspekt bekommen. Aussehen tut das Ganze jedenfalls absolut phantastisch, erscheinen soll es im April – ich bin gespannt. Immerhin mal jemand, der nicht wegen des iPad nahezu jede Weiterentwicklung für das iPhone auf Eis legt, sondern mit einer großartigen neuen Idee kommt. Ich kann alle Leute verstehen, die das «echte Analoge» für unersetzbar halten, aber so wie ich auch Emulationen alter Drummachines und Synthesizer im Westentaschenformat mag, so ist auch diese Idee ausgesprochen witzig.

10:47 Uhr. Kategorie Technik. Tag , , , . Keine Antwort.

Irgendwo schüttelt Steve Ballmer seine Gigantischen Fäuste…

hd schellnack

Der iMac von 2008 war einer der Gründe, warum wir den Switch zurück von Windows zu Mac gemacht haben. Nach Jahren von eher etwas albern anmutenden Plastikkisten (wobei der Stanley-Kubrick-iMac sicher nicht unschick war auf seine seltsam retrofuturistische Art)  hatten Jonathan Ive und sein Team hier so gründlich eine reduzierte, klare Version von PC vorgestellt, die mit 10.5 auch zudem ein verglichen mit Vista ziemlich gutes Betriebssystem anbot, das ich zumindest neugierig wurde. Noch 2008 haben wir im Büro komplett mit fast allen Rechnern (bis auf einen) auf Mac umgesattelt – und ich bin bis heute sicher, dass ich nicht der einzige bin, den Vista derart verstört hat, dass er oder sie zu Apple wechselt.

2009 ist Windows kurz davor ein neues Vista vorzustellen, dass zwar immer noch aussieht wie ein japanisches Autoradio, aber zumindest solide laufen soll – und nennt es deutlich bescheidener einfach Windows7. Und ein Schelm, wer Böses dabei denkt, dass Apple nicht ganz zwei Tage vor dem Release der diversen Windows-Softwares einen ganzen Kanon von Mac-Produkten auf den Markt wirft, die sich fast unisono an Einsteiger wenden. Ein ziemlich gut gemachtes Plastik-Unibody-MacBook ab 999 Euro, ein 21″-iMac in der gleichen Preisliga und sogar noch den schon totgesagten MacMini in einer Server-Variante. Bemerkenswert dabei ist vor allem das Flaggschiff-iMac-Modell, das mit stolzen 27″Display  aufwartet, einem i7-Nehalem, bis zu 16 GB RAM und bis zu 2 TB Festplatte… und das alles für etwas über 2000 Euro und mit einer Maus, die sich zwar erst wird bewähren müssen, die aber vom Konzept her derzeit einzigartig am Markt sein dürfte. Damit ist der iMac absolut kein Spielzeug mehr, sondern dringt in die Workstation-Klasse vor, mehr als genug Power für jeden Heimanwender und der vielleicht kompakteste Rechner, den man sich derzeit mit so viel Leistung, einem so großen Display, ohne jedes Kabelwirrwar (immer wieder toll ist die Frage: «Und wo ist der Rechner?») und komplett mit einem stressfreien OS kaufen kann. Abgesehen davon, dass der neue iMac mit dem durchgehenden Glas, dem Alurücken (endlich) und der schmaleren Silhouette definitiv besser in ein Wohnzimmer passt als irgendein PC derzeit auf dem Markt, von Büros ganz zu schweigen. Ich selbst habe einen MacPro und einen deutlich überlegenen Quato-Bildschirm und schaue trotzdem manchmal neidisch zu den Kollegen, die keinen Rechner mehr unterm Tisch stehen haben, sondern nur noch ein schmales Nichts vor sich (leider sind iMac-Screens nach wie vor nicht hardwarekalibrierbar, obwohl es gerade bei den iMacs als integrierte Lösung doch so einfach sein könnte). Die Strategie, Kunden mit iPod und iPhone auf Mac neugierig zu machen und dann mit solchen Einstiegsdrogen auf der Computerebene abzuholen, scheint aufzugehen. Bei allen Problemen, die Apple in letzter Zeit hat (Bugs in Snow Leopard,MobileMe-Launch, ein iPhone, das drei Generationen braucht, um alltagstauglich zu werden, Appstore-Verirrungen und und und), scheint der Siegeszug von Steve Jobs fast unaufhaltbar.

Und das ist natürlich etwas beängstigend – denn jede gute Firma braucht auch eine starke Konkurrenz, die sie mobil hält. Und da Apple zu kleinen Sonderbarkeiten neigt und gerne mal technische Standards komplett ignoriert (BluRay, Flash, eSata usw) oder ad hoc neu definiert (DisplayPort), ist das essentiell auch für Apples R&D selbst – wo keine Herausforderung mehr ist, werden die Controller ansonsten die Forschung und Entwicklung ausbremsen, um den Profit zu maximieren.

Und es ist verwirrend. Denn schließlich ist Apples Erfolg relativ leicht nachvollziehbar und auch plausibel, insofern lässt sich deren Strategie leicht auf andere Bereiche, aber eben auch auf das Computer/Entertainment-Geschäft selbst anwenden. Umso seltsamer, dass offenbar keine andere Firma – und wir reden hier ja von Weltkonzernen – in der Lage scheint, diese Strategie zumindest nachzuahmen. Geschweige denn eine eigene, bessere Option zu entwickeln.  Microsoft hat mittlerweile nur noch desaströse Software und nahezu keine Hardware im Angebot, Dell und Sony ihrerseits keine ernstzunehmende Software – integrierte und nahtlose Lösungen, die (wie bei Apple) mit jedem hinzugefügten Baustein mehr Sinn machen, können so nicht entstehen. Es wäre an der Zeit, dass ein großer Player der Branche ein eigenes Betriebssystem entwickelt – offener, schneller, kompatibler als alles bisherige – und eine ganze Reihe von nahtlos darauf abgestimmter Hardware. Ich glaube auch nicht wirklich, dass Apples Erfolg nur an der «architektonischen» Vision von Steve Jobs liegt und insofern nicht wiederholbar ist. Mit der gleichen Logik dürfte es auch nur einen Marc Newson oder nur einen Norman Foster geben – in Wirklichkeit wimmelt es aber von exzellenten Produktdesignern und Architekten. Warum also nicht von Plattformanbietern?

Wie die Dinge derzeit stehen, möchte man nicht in Steve Ballmers Haut stecken, der ohnehin ein zwei extrem frustrierende Jahre hinter sich haben dürfte und dem entsprechend mangels eigener Argumente zunehmend nur noch die Option bleibt, die Konkurrenz anzugiften, die ihm nicht nur wenige Wochen vor Win7 ein komplettes OS-«Upgrade» (Snow Leopard lässt sich auch ohne 10.5 komplett installieren, ist also mehr als nur ein Upgrade) für 29 € vor die Nase setzt und damit zeigt, wie überteuert Windows vergleichsweise ist, sondern jetzt auch noch wenige Tage vorm Start eine komplette «Hey komm rüber zu uns»-Attacke startet, die so kurz vor Weihnachten auch sicher fruchten könnte. Ich möchte gar nicht wissen, wie viele Studenten und Heimanwender auf ein MacBook oder einen iMac wechseln werden.

Es ist entsprechend krude, wenn man anfängt, mit MS so etwas wie Mitleid zu entwickeln – keine Firma hätte das weniger verdient als diese -, und sich wünscht, irgendjemand würde diesen Koloss wieder sportiv und aggressiv kriegen und endlich mit Inhalten und Ideen füllen… wir alle würden davon profitieren.

21. Oktober 2009 08:21 Uhr. Kategorie Technik. Tag , . 6 Antworten.

Zevrix PDF Checkpoint Public Beta

hd schellnack

Zevrix Solutions, von denen unter anderem auch sinnvolle Indesign-PlugIns wie InPreflight und BatchOutput stammen und die mit LinkOptimizer eine Automatisierung für Bildumrechnung in Indesign anbieten, bieten auf Ihrer Site derzeit gratis zum Download die Beta ihres PDF-Preflight-Tools Checkpoint an.

Auf den ersten Blick leistet Checkpoint keineswegs mehr als der eingebaute Preflight von AdobeAcrobatPro, ganz im Gegenteil – Acrobat hat deutlich mehr Abfrageoptionen und kann die PDF tiefer durchleuchten und sogar automatisiert Fehler beheben, wenn man sich die Mühe macht, die Preflight-Profile ordentlich zu konfigurieren und optimieren.
Dennoch liefert Checkpoint auf die wichtigsten Fragen – Schriften, Links, Farbräume und Auflösung – schnell und übersichtlich eine Antwort, zeigt eventuell falsche Bildelemente visuell an, so dass man sie schnell in Indesign ausfindig machen kann, ist batchfähig und kann mit einem einzigen Klick PDFs durchleuchten. Eigene Profile sind schnell angelegt und schneller/einfacher als Acrobat ist Checkpoint allemal, auch wenn er Problemfelder wie Transparenzen bisher nicht anzeigt, also nicht ganz so wasserdicht ist wie der Acrobat-eigene Preflight, der allerdings auch oft auch so komplexe Ergebnisse zeigt, dass ein Laie damit überfordert ist.

Die fertige Version soll zudem automatisiert je nach Ergebnis der Prüfung Dateien in entsprechende Ordner weiterleiten können, PDF teilen und Bilder entnehmen können.

Wer die Beta herunterlädt und sich als Betatester registriert bekommt 50% Rabatt auf die finale Version.

21. August 2009 10:02 Uhr. Kategorie Design. Tag . Keine Antwort.

Design in the Cloud

Seit einigen Jahren munkele ich, dass Software in Zukunft nicht mehr lokal auf dem Rechner liegen wird, sondern – im Grunde gemietet – online auf einem Server, im Sinne von Cloud-Computing, stattfinden wird. Das steckt alles noch in den Kinderschuhen, wird aber fleissig vorwärtsgeschoben, wie das Aviary-Projekt beweist, das sehr beeindruckend Vektor- und Pixelediting, einen Effektegenerator und ein Kuler kaltstellendes Farbpalettensystem programmiert haben. Extrem beeindruckend, um es mal bescheiden zu sagen, wie die Nachbildung eines funktionierenden OS gestalterisch wie in der Umsetzung schon in der Beta funktionieren, auch wenn alles natürlich hinter den Möglichkeiten von etwa der Creative Suite zurückbleibt. Dennoch: Wer hiernach noch behauptet, Flash sei nur für alberne Animationen zu gebrauchen, sollte endlich mal umdenken. Das Cloud-Design wird kommen, und es ist mit Aviary ein ganzes Stück näher gerückt. Würde mich nicht wundern, wenn Adobe entweder schnell nachlegt oder kurzerhand die Tools einkauft…

12. Mai 2009 18:12 Uhr. Kategorie Online. Tag , . Eine Antwort.

One suite to rule them all

John Nack spekuliert in seinem stets lesenswerten Blog über den Ansatz, die Möglichkeiten und Unmöglichkeiten, aus Adobes Creative Suite eine einzige dokumentenorientierte Applikation zu machen:

« What if we leveraged these to provide the feel of being in one “CreativeSuite.app(.exe),” where each application is a module? Photoshop would be the image-editing mode of Illustrator; Illustrator would be the vector-editing mode of InDesign; etc».

Na, da wäre ich aber mal für zu haben.  :-D

21. April 2009 08:26 Uhr. Kategorie Technik. Tag . Keine Antwort.

New Family


Der zweite Microsoft-Spot ist erschienen. Die Viralität dieser Kampagne dürfte extrem hoch sein, einfach weil man dieses Beispiel für laaaange und völlig abstruse – aber durchaus lustige – Werbung einfach weiterreichen muss. Respekt vor Bill Gates Selbstironie… aber ich verstehe ehrlich gesagt immer noch nicht, was das Ganze soll. Der Spot ist so gebaut, das bestenfalls 5% den seltsamen WesAnderson-Humor darin goutieren werden, und wow – das ist NICHT wirklich die Microsoft-Nische. Keine Ahnung, wo das hinführt, aber ich habe zweifel, dass es den Absatz von Vista ankurbeln wird. Während ich den Schuh-Spot noch halbwegs verstnd (aber nicht lustig fand), verstehe ich hier nur noch Bahnhof im Hinblick auf Produktwerbung, finde es aber immerhin witzig – trotz Seinfeld und Gates. Die Familie ist prima.

12. September 2008 09:47 Uhr. Kategorie Stuff. Tag , . Eine Antwort.

Microsoft Goes Gaga

hd schellnack

Angesichts der erfolgreichen I’m a Mac/I’m a PC-Werbespots von Apple hat Microsoft ja vor einiger Zeit den bekennenden Apple-User und Comedian Jerry Seinfeld angeheuert, um ihn für Windows/Vista werben zu lassen. Bereits bei der Ankündigung hagelte es knackige Kommentare, laut denen Jerry ja bereits mit Seinfeld eine TV-Serie über «Nothing» gedreht habe, insofern also der ideale Mann sei, um für ein Betriebssystem zu werben, über dass es eben Nichts (Bzw. nichts gutes) zu sagen gibt.

Jetzt ist der Spot erschienen – und verwirrt. Sollen wir alle Microsoft kaufen, weil Bill Gates sich ansonsten keine Schuhe mehr leisten kann? Soll der Spot uns sagen, dass Bill einer von uns normalen Menschen ist und wir ihm deshalb vertrauen können? Sollen wir verstehen, dass Vista wie ein Paar Schuhe ist, die man erst einlatschen, unter der Dusche dehnen und mit schmerzverzerrtem Gesicht verbiegen muss, bis man sich richtig wohl damit fühlt (und genau so ist es, Vista läuft eigentlich erst, nachdem man in Jahr daran herumgeknetet hat, anders als andere Betriebssysteme, die irgendwie sofort funktionieren)? Und warum ist Windows Delicios? Produziert Microsoft also demnächst Twinkies? Und wieso eigentlich Bill Gates – hat der Gute sich nicht kürzlich erst zur Ruhe gesetzt? Ist Steve Ballmer nicht attraktiv genug? Tatsache ist, dass es in dem Spot tatsächlich irgendwie um «Nichts» geht und auch wenn ich das unterhaltsam Verquere des Spots irgendwie mag, funktioniert er einfach in kaum einer Hinsicht, außer das er semi-unfreiwillig komisch ist.

Während Apple – ungeachtet aller MobileFail und iPhoneRückschläge einen Ball nach dem anderen schlägt und mit etwas Mut auch in Zukunft die Nase vorn haben kann – wirkt Microsoft wie gelähmt. Vista ist ein schlechter Nachbau von OS X, Windows 7 wirkt kaum überzeugender. Darüber hilft keine Werbung der Welt hinweg, sondern Microsoft müsste überlegen, wie man der Zange OS X/Linux, die mehr und mehr auch in den eigentlichen Stammbereich von MS – dem Businesssegment – an Boden gewinnt, vom Home-Bereich ganz zu schweigen, begegnen kann. Und Apple ist nun auch kein kleiner, flinker David gegen den Goliath MS, sondern ebenfalls eine multinationale, große Firma, die aber gerade im direkten Vergleich deutlich behender wirkt. Wer immer in Zukunft die Geschicke von MS leitet, sollte Dynamik ins Spiel bringen und einen großen, mutigen Schritt nach vorn wagen, bevor es zu spät ist und Gates sich wirklich seine Schuhe im Billiggeschäft kaufen muss.

5. September 2008 13:04 Uhr. Kategorie Technik. Tag , . 7 Antworten.

Myquire

In der immer unübersichtlicher werdenden Flut von Online-Social Networks und Online-Groupwareangeboten suchen wir immer noch nach der perfekten Alternative. Die meisten Sachen sind entweder unattraktiv oder user-unfreundlich oder schlicht an dem vorbei, was wir bei nodesign an groupware brauchen. Wenn wir wirklich alle mal auf Apple umgestiegen sind, wird eventuell .mac Sinn machen. Eine Freeware-Alternative, die vielleicht für den ein oder anderen da draußen spannend sein kann ist MyQuire, wo sich gratis Gruppen udn Projekte anlegen lassen und sozusagen Groupware und Social Networking zusammengelegt sind. Im grunde Xing plus Chat plus Fileupload plus Kalender plus simples Projekttool.

28. Februar 2008 09:34 Uhr. Kategorie Online. Tag . 5 Antworten.

Hello Kitty – Let’s Play

Hello Kitty hat sich in den letzten Jahren als eine der machtvollsten Markenfiguren schlechthin erwiesen – und startet jetzt mit einem MMORPG, das wahrscheinlich nach dem Start Abertausende von Kids an den Bildschirm fesseln wird. Vielleicht noch nicht die Killerapplication in Sachen VR, aber ich finde, die Schritte in diese Richtung werden immer und immer deutlicher. Die Fusion von Onlinegaming, IM, Social Network und zielgruppengerechtem Webmarketing dürfte in den nächsten Jahren Formen von sozialer Interaktion hervorbringen, gegen die die alten MUDs und auch heutige Systeme wie MySpace oder Facebook oder auch die heutigen iChat/Skype-Videofunktionen eher entsetzlich altbacken wirken dürften. Die Wii zeigt zudem, wie positiv der Markt auf mehr dreidimensionale Interaktion zwischen Körper und Maschine reagiert, preiswerte HI/ODs in Form von Suits oder Brillen sind da nur eine Frage der Zeit. Irgendwo lacht Bart Kosko sich tot, denke ich.

22. Februar 2008 08:25 Uhr. Kategorie Online. Tag . Eine Antwort.


Creative Commons Licence