Jump to content
Die Schriftmuster der Welt in einer Datenbank …

Typografie-Artikel

Neuigkeiten und Fachartikel zu Schrift und Typografie
Der weltweite Austausch von Daten gewinnt zunehmend an Bedeutung. Unterschiedliche Computer-Plattformen, Programmiersprachen und Datenbanksysteme verlangen nach einem einheitlichen Kodierungsstandard zum Datenaustausch.
Die frühere Beschränkung auf eine Kodierung mit 8 Bit (siehe Teil 2 der Artikelserie) kann diese Forderung nicht erfüllen, da die damit möglichen 256 Zeichen lediglich ausreichen, um einzelne Sprachsysteme abzubilden. Das Mischen beliebiger Sprachen ist damit nicht möglich. Es ist natürlich auch mit 8-Bit-Fonts und -kodierungen denkbar, einen Text zu erstellen, der zum Beispiel russische und griechische Textabschnitte enthält. Diese müssen dazu lediglich mit entsprechenden Fonts (zum Beispiel Helvetica Cyrillic und Helvetica Greek) formatiert werden. In den 1990er Jahren war dies mit den damaligen PostScript-Type1-Fonts gängige Praxis. Doch auch dies kann nur eine Notlösung sein. Denn im Dokument bedienen sich dann zwangsläufig beide Sprachen der gleichen Binärkodes – eine eindeutige Zuordnung eines Kodes zu einem Zeichen ist nicht gegeben. Schon das Öffnen des Dokuments in einer anderen Schriftart würde die Inhalte für den Empfänger unbrauchbar machen.

Eine eindeutige Zeichenkodierung, die unabhängig von Sprachräumen und Rechnerplattformen ist, scheint heute aber unabdingbar – sei es für die Kundendatenbank eines weltweit agierenden Unternehmens oder den Satz einer wissenschaftlichen Arbeit oder eines vielsprachigen Medikamenten-Beipackzettels. Die Lösung dieser Probleme ist so einfach wie nahe liegend. Statt verschiedene Sprachen durch identische Kodes abzubilden, muss ein Standard geschaffen werden, der jedem grafischen Zeichen oder Element aller bekannten Schriftkulturen und Zeichensysteme einen eindeutigen Kode zuordnet. Dieser Standard ist Unicode. Er gibt jedem Zeichen seine eigene Nummer – plattformunabhängig, programmunabhängig und sprachunabhängig.

 
Die Tragweite dieses Zeichensatzes geht allerdings weit darüber hinaus, einfach nur ein weiterer Industrie-Standard im Wirrwarr der Zeichensätze zu sein. Mit dem ehrgeizigen Ziel, jedem Sinn tragenden Zeichen der Welt eine eindeutige Kodierung zu geben, wird der Unicode gleichsam zum kulturgeschichtlichen Projekt. Selbst Schriftzeichen, die nur von kleinen Menschengruppen benutzt werden, können im Unicode vertreten sein, und Schriftsysteme, die in Zukunft vielleicht außer Gebrauch geraten, werden im Unicode für alle Zeit bewahrt. Der Unicode bildet somit ein dauerhaftes »Museum der Schriftkultur«.

Für die Entwicklung des Standards hat sich das Unicode-Konsortium gegründet, eine gemeinnützige Organisation, deren Mitglieder ein breites Spektrum von Firmen und Institutionen in der datenverarbeitenden Industrie und Informationstechnologie vertreten. Der Unicode-Standard wurde im Jahr 1991 erstmals veröffentlicht. Er wird von führenden Computer-Unternehmen wie Apple, Hewlett-Packard, IBM, Microsoft, Sun und so weiter unterstützt. Es bestehen kaum Zweifel daran, dass sich Unicode zum wichtigsten Kodierungsstandard entwickeln wird – zur Lingua Franca der digitalen Welt. Dennoch ist weder die umfassende Verbreitung noch die Entwicklung des Standards schon völlig abgeschlossen. Unicode wird fortlaufend um neue Zeichen ergänzt. Im Schnitt kommen pro Jahr 1000 neue Zeichen hinzu. In der aktuellen Version 6 sind circa 110.000 Zeichen erfasst. Allerdings bietet der Standard Platz für über eine Million Zeichen.


 
Wenn Unicodes notiert werden sollen, benutzt man in der Regel eine hexadezimale Darstellung (Ziffern von 0–9, Buchstaben von A–F) mit einem vorangestellten »U+«. Der kleinste Wert ist U+0000, der größte ist U+10FFFF. Dazwischen ist Platz für die besagten eine Million Zeichen. Das kleine Eszett hat beispielsweise den Unicode-Wert U+00DF und das große Eszett, das mit der Unicode-Version 5.1 erschien, hat den Kode U+1E9E. Sobald neue Unicode-Zeichen aufgenommen wurden, sind sie sofort auf allen Unicode-fähigen Geräten anwendbar. Zur Darstellung auf Monitoren und Druckern wird natürlich mindestens ein Font benötigt, der über die neuen Zeichen verfügt. Für den Computer spielt die Darstellung natürlich keine Rolle. Man kann auch Unicode-Zeichen ohne konkrete Darstellung von einer Anwendung zur nächsten kopieren.

Theoretisch kümmert sich Unicode jedoch nur um so genannte »Sinn tragende Zeichen«. Kapitälchen, Schmuckligaturen und ähnliche typografische Besonderheiten, sind für das Unicode-Konsortium nicht interessant, da sie als Glyphenvarianten zu bestehenden Unicode-Zeichen angesehen werden. Diese Zeichen müssen also in der Regel ohne einen Unicode auskommen und sind dann ausschließlich über OpenType-Funktionen ansprechbar. Schriftanbieter haben jedoch die Möglichkeit, diesen Zeichen einen »privaten« Unicode zuzuweisen. Dazu bietet der Unicode-Standard einen besonderen Bereich zur freien Verfügung an: die so genannte Private Use Area (PUA). Werden in Fonts bestimmten Zeichen PUA-Kodes zugewiesen, kann man diese Zeichen also z.B. in der Zeichenpalette/Zeichentabelle des Betriebssystems finden und per Kopieren-und-Einfügen benutzen. Allerdings führt dann gegebenenfalls schon ein Wechsel der Schriftart zu völlig unterschiedlichen Zeichen, da dieser private Bereich eben nicht standardisiert ist.


 
Welche Zeichen neu aufgenommen werden, hängt natürlich von den Interessen der einreichenden Parteien ab. Nicht jedes der circa 100.000 Zeichen kann wirklich als sprachlich Sinn tragend bezeichnet werden. Gerade im Bereich der Piktogramme finden sich zum Beispiel unzählige Zeichen mit fragwürdiger Relevanz, wie etwa PILE OF POO. Aber auch diese Zeichen sind im »Museum der Schriftkultur« für alle Zeit konserviert. Einmal kodierte Zeichen werden nie wieder entfernt.


 
Neben dem Unicode-Wert hat jede Kodestelle auch einen eindeutigen englischen Namen, der das Zeichen meist inhaltlich oder notfalls visuell beschreibt. Zwar kann man sich die 100.000 Namen nicht alle merken, aber es hilft bei der Suche nach bestimmten Zeichen durchaus, sich ein wenig mit dem System vertraut zu machen. So lässt sich der Zeichenvorrat in den Tools der Betriebssysteme leicht über den Namen eingrenzen. Im nebenstehend gezeigten Beispiel von Mac OS X werden etwa durch Eingabe des Begriffs »Arrow« automatisch alle kodierten Pfeilsymbole angezeigt. Ein weitere Klick auf einen bestimmten Pfeiltyp zeigt im Anschluss, welche der installierten Schriften über genau diesen Unicode-Pfeil verfügen. 


 
Wer weder Unicode-Wert noch Namen kennt, kann sich durch die verschiedene Unicode-Blöcke hangeln. In diesem Bereichen sind die Zeichen systematisch zusammengefasst; sei es bezogen auf das Schriftsystem (lateinisch, griechisch usw.) oder auf die Art und Funktion der Zeichen (Währungszeichen, diakritische Zeichen usw.)


 
Unicode ist heute der Standardzeichensatz in Windows, Mac OS, Unix usw. und auch im Internet werden die klassischen 8-Bit-ISO-Zeichensätze immer mehr von Unicode-kodierten Webseiten verdrängt. Daher bereitet der Austausch von mehrsprachigen Dokumenten nach und nach immer weniger Probleme. Und auch Systemschriften und kommerzielle OpenType-Fonts besitzen einen immer größeren Zeichenvorrat, um den gestiegenen Anforderungen der globalen Kommunikation gerecht zu werden. Anwender müssen jedoch darauf achten, in welcher Kodierung verfasste Dokumente weiter gegeben werden. Die alten systembasierten 8-Bit-Kodierungen wie Mac Roman und Windows 1252/ANSI sollten für einen plattformübergreifenden Austausch vermieden werden. Auch ist es wichtig, dass die Information über die verwendete Kodierung im Dokument selbst enthalten ist, damit das öffnende Programm sie auch benutzen kann. TXT-Dateien enthalten zum Beispiel keine Informationen über die verwendete Zeichenkodierung und auch Webseiten werden nicht automatisch mit dieser Information ausgeliefert. Im Zweifel benutzt das Anzeigeprogramm dann einfach die Standardkodierung und Sonderzeichensalat ist nicht selten die Folge.
Weiter Informationen zum Unicode und Übersichten aller kodierten Zeichen gibt es auf der offiziellen Homepage unter http://unicode.org


(Illustration: Kai Meinig)
Außerhalb der regulären Aktualisierungen der Creative Suite hat Adobe die Veröffentlichung der Version 5.5 angekündigt. Die Zwischenversion widmet sich vor allem dem digitalen Publizieren von Dokumenten auf Smartphones und Tablet-Geräten. Entsprechende Tools waren seit einiger Zeit als Beta-Versionen verfügbar und sind nun in der Creative Suite 5.5 vollständig integriert. Neben einigen zusätzlichen Tools für Photoshop betreffen die Änderungen daher vor allem Adobe InDesign. Dokumente können direkt für iPad und Android-Geräte ausgegeben werden oder direkt über die Server der Adobe Digital Publishing Suite verbreitet werden. Außerdem wurden die Möglichkeiten zum Export von eBooks im EPUB- und HTML-Format deutlich verbessert.
Die Suite sowie die Einzelanwendungen können ab sofort in den deutschen Versionen vorbestellt werden. Die Aktualisierung von InDesign 5 auf die Version 5.5 schlägt mit 177,31 Euro zu Buche; die Aktualisierung der kompletten Design-Premium-Suite kostet 534,31 Euro. (Brutto-Preise)
Weitere Informationen zu den Neuerungen gibt es auf der Homepage von Adobe.

Neu ist auch die Möglichkeit, die Programme zu mieten. Für 7,5 Prozent des normalen Netto-Kaufpreises kann man die Produkte monatsweise mieten. So können Nutzer, die nur zeitweise an einem Projekt mitarbeiten, für diese Zeit mit einer Nutzungslizenz ausgestattet werden, ohne dass eine teure Einmallizenz nötig wäre, die sich dann oft gar nicht rechnen würde.
Nach den typografischen Ringen gibt es im Dawanda-Shop Ana Karijoka jetzt auch Manschettenknöpfe. Die Manschettenknöpfe sind aus 925er Silber und matt geschliffen oder glänzend. Sie sind mit einem Einsatz aus Acryl versehen, der rückseitig mit einem Buchstaben bedruckt wird. Weitere Informationen und Bestellmöglichkeiten unter:
http://de.dawanda.com/shop/anakarijoka/955225-Manschettenknoepfe




Auch in anderen Dawanda-Shops finden sich zahlreiche typografische Schmuckstücke. Insbesondere alte Schreibmaschinentasten lassen sich offenbar hervorragend zu Ringen, Ketten, Anhängern, Ohrringen usw. verarbeiten:
http://de.dawanda.com/search?as=&page=1&q=schreibmaschinen

Das Berliner Schriftenhaus FSI FontShop International hat seine Homepage fontfont.com umfassend überarbeitet. »Schnell, aufgeräumt und leicht zu bedienen« sollte sie sein, wünschte sich Marketing-Leiter Ivo Gabrowitsch. Entwickelt wurde die neue Seite von Mitgründer Erik Spiekermann und seinem Team bei Edenspiekermann.
 

 
Eine so große Schriftbibliothek auf einfache Weise für unterschiedlichste Nutzer und Suchanforderungen zugänglich zu machen, ist sicherlich keine leichte Aufgabe. Die Umsetzung bei FSI wirkt in jeder Hinsicht gelungen und zeitgemäß. Über die Browse-Funktion kann die gesamte Bibliothek visuell durchstöbert werden. Wer schon genauer weiß, was er möchte, kann über die Suchen-Funktion die Schriftauswahl auf einfache Weise eingrenzen. Stil, Formate, Schriftsystem, Strichstärke und Weite, Designer und Schriftfamilie stehen als Filter zur Verfügung. Die Ergebnisse werden direkt angezeigt, ohne die Seite neu laden zu müssen.
 

 
Auch die Darstellung der Detailinformationen wurde deutlich verbessert. Die Schriftmuster werden nun beträchtlich größer dargestellt, um die jeweiligen Fonts auch in jedem Detail begutachten zu können. Darüber hinaus wird die Zeichenbelegung übersichtlich dargestellt und für viele Schriften sind Bilder aktueller Anwendungsbeispiele hinterlegt.
https://www.fontfont.com
Andreas Seidel hat seine Serie typografischer Akkoladen um ein weiteres Set erweitert. Damit lassen sich aufeinander abgestimmte, kalligrafische Schwünge und Rahmen spielend einfach setzen.

Die Schriften sind ab 32 Dollar über MyFonts erhältlich. Das Schriftmuster-PDF gibt einen Überblick über die Einsatzmöglichkeiten der 6 Fonts. Die InDesign-Dateien des Schriftmusters sind im Download-Paket enthalten, so dass sich die Nutzer mit dem Setzen und Kombinieren der Glyphen vertraut machen können.
 

Typografie.info-Mitglied Burkhard Liermann von Protondesign in Völklingen hat das neue Leitsystem für die Marienhausklinik Kohlhof im Saarland entwickelt. Über Typografie.info fand er die passende Schrift für sein Projekt. Wir führten dazu ein Interview mit dem Designer.

Du bist ja schon seit Jahren im Bereich Werbung tätig. Gehört eigentlich der Bereich Beschilderung und Leuchtwerbung automatisch dazu?
Moderne Werbekonzepte müssen natürlich alle Bereiche berücksichtigen, und es zeichnet einen guten Designer aus, wenn er vielseitig ist. Deshalb gehören Schilder und Beschilderungen dazu und damit auch die Leuchtwerbung. Geschäftskunden legen heutzutage großen Wert darauf, dass sie alles aus einer Hand bekommen können. Die klassische Werbung mit Logo, Homepage, Flyern und Briefpapier ist noch immer wichtig, aber immer öfter habe ich in den letzten Jahren gehört: »Ich brauche da noch eine Schaufensterbeschriftung ...« Wenn ich ein Werbekonzept für ein Restaurant erstelle, dann gehört neben der Speisekarte eben auch die Leuchtwerbung dazu, vielleicht zusätzlich ein beschrifteter Pylon im Eingangsbereich. Für mich ist es jedenfalls eine selbstverständliche Serviceleistung, dass ich meine Kunden auch im Hinblick auf die Gestaltung von Leuchtwerbung und Beschilderung kompetent und effektiv beraten kann.
 


Inzwischen kann ich mit meinen Partnern auch Sonderlösungen – wie mit zwei Radien gebogene Schriftzüge, gebogene Fronten mit dekupiert und durchgesteckten Acrylglasbuchstaben sowie tief- oder hochgezogene Logos etc. realisieren. Durch den Fortschritt der LED-Technik, durch die Vielfalt der zur Verfügung stehenden Maschinen und Elektronik ist in diesem Bereich nahezu alles möglich – auch computergesteuerte Leit- und Orientierungssysteme.

Wie kam es zum Auftrag für die Gestaltung der Marienhausklinik Kohlhof und in welchem zeitlichen Rahmen wird so ein Projekt bearbeitet?
 

 
Der Auftrag wurde mit Fördergeldern realisiert, und die öffentliche Ausschreibung war auf bekannten Ausschreibungsportalen hinterlegt. Ein Anruf beim Architekten, der als Ansprechpartner genannt war, brachte mir einen ersten Kontakt und zusätzlich viele Hinweise zu meinen Fragen. Solche Kontakte zu Entscheidern, Auftraggebern und Generalunternehmern sind -auch schon im Vorfeld-immens wichtig.
Im Normalfall sollte man vier bis sechs Monate für die Vorbereitung einplanen. Je nach Anzahl der Entscheider, Gremien, Arbeitsgruppen etc. kann sich so ein Projekt schon im Vorfeld ziemlich hinziehen. Es sind viele Absprachen und Entscheidungen mit vielen unterschiedlichen Beteiligten nötig. Bei solchen Runder-Tisch-Gesprächen sollte man die Meilensteine der Projektphasen genau im Kopf (oder auf Papier) haben, um so viel Fragen wie möglich zu klären.

Mit welchen Parteien arbeitet ein Designer bei so einem Projekt zusammen?
In der Regel gibt es direkte und indirekte Ansprechpartner. Je nach Auftrag sind hier zu nennen: der Generalunternehmer, der Architekt, der Projektsteuerer, der Endkunde mit seinen diversen internen Gremien oder Arbeitsgruppen (Direktorium, Chefärzte, Ärzte, Personal, technische Leitung etc). Wichtig ist es, von Anfang an einen einzigen Hauptansprechpartner und Entscheider zu finden, den man dann in allen Belangen konsultieren kann.
 


Wo liegen typische Probleme und Stolperfallen?
Als ich angefangen habe, in diesem Bereich tätig zu werden, war es besonders problematisch für mich, wenn sich ein Projekt verselbstständigt hat und untergeordnete Gruppen bei wichtigen Entscheidungen mitreden wollten. Damals habe ich gelernt: Um das Projekt im Auftragsrahmen zu halten, müssen konsequent die vereinbarten Regeln eingehalten werden. Sonst kann das ganze Projekt gefährdet sein. Das gezielte und sorgfältige Projektmanagement vor Beginn der Bauphase hat also oberste Priorität. Fehler wie falsche Maße, Schätzungen und nicht sorgfältig ausgeführte Aufmaße, können in der Ausführungsphase zu Problemen führen, die dann nebenbei auch noch gelöst werden müssen. In der Hochphase gilt es, zu kontrollieren, abzugleichen, Monteure zu unterrichten, zu motivieren und immer den Überblick zu behalten. Des Weiteren müssen jederzeit die Budgetkontrolle, Arbeitsstundenkalkulationen etc. im Blickfeld bleiben.
 


 
Was ist das Besondere an der Beschilderung von Krankenhäusern?
Im Gegensatz zu offen gestalteten Räumen wie Bahnhöfe sind Krankenhäuser berühmt für ihre langen, möglicherweise noch verschachtelten Gänge, in denen man schnell die Orientierung verliert. Hinzu kommt, dass die Besucher und das Personal unterschiedliche Ziele haben können. Also heißt die Herausforderung: Wie findet man die typischen Laufwege der Benutzer? Und wie gestaltet man die Beschilderung an den Entscheidungspunkten so, dass sie für alle Benutzer funktioniert?
Grundsätzlich gilt: Ein Leitsystem muss durch Konsequenz überzeugen, durch eine klare Struktur und einheitliche grafische Merkmale, die Hinweisgeber (Schilder und Zeichen) müssen eine einheitliche Zeichensprache und Formgebung haben. In der Marienhausklinik haben wir uns für eine Gliederung entschieden, die wir in eine »vertikale Linie« (4 Etagen) und eine »horizontale Linie« (innerhalb der Etagen bzw. Fachabteilungen) eingeteilt haben.
Die vertikale Linie umfasst zunächst Etagenwegweiser in den Fahrstühlen selbst und gegenüber den Fahrstühlen in den Etagen. Gegenüber den Treppenhausausgängen befinden sich jeweils DIN A3-Schilder mit einer Kurzbeschreibung der nächsten Ziele rechts und links.
In der horizontalen Linie wurden zunächst Deckenwegweiser verteilt. Sie dienen der groben Richtungsweisung in die Fachabteilungen (z. B. Neuropädiatrie, Geburtshilfe etc). Zusätzlich wurden die Türen mit Klartext (ausgeschriebenen Abteilungsnamen) gekennzeichnet.




Und wie muss man sich das praktisch vorstellen?
Auf dem Weg zu den Abteilungen befinden sich Fahnenwegweiser an bestimmten wichtigen Punkten (z.B. Anmeldung, Untersuchungsraum, WC, etc). Die Feininformation befindet sich dann auf den Türschildern (Abteilung, Name, Zusatzhinweise, wie Öffnungszeiten, Sekretariat etc.). Innerhalb einer Station/Abteilung wurde der jeweilige Stützpunkt durch ein neu entwickeltes Logo mittels eines kleinen Deckenabhängers gekennzeichnet. Hier findet der Patient/Besucher Ansprechpartner, die im persönlichen Kontakt die Weitervermittlung übernehmen. Beispielsweise kann man dort eine Schwester ansprechen, die bei der Suche nach einem bestimmten Patienten oder einer Fachabteilung hilfreich zur Seite steht.
Mit dieser dreistufigen Gliederung ist sowohl die Orientierung als auch die Leitung möglich. Der Rückweg ist auf allen Deckenwegweisern konsequent gekennzeichnet, so dass die Hauptziele, wie Ausgang, Information, Bistro jederzeit ersichtlich sind.
 

 
Warst Du denn auch für das Datenmanagement zuständig? Das muss ja eine riesige Datenflut gewesen sein.
Ja, die Verwaltung der Daten gehörte ebenfalls zu meinen Aufgaben. Dieses Datenmanagement erfordert ein Höchstmaß an Konzentration und Sorgfalt. Es beginnt mit Musterseiten für die Positionierung des Logos, der Textinhalte, der Namen und der Raumnummern bis hin zur späteren Bestückung der Schilder. Ich habe mittels InDesign und Platzhaltern über eine XML-Ansteuerung aus Excel die Informationen, die ich vom Kunden erhielt, automatisiert in entworfene Layouts eingebunden. Das hatte den Vorteil, dass ich Änderungen schnell durchführen konnte. Die PDF-Dateien wurden dann an die Druckerei gesendet und die Schilder manuell bestückt.

Welche grafischen oder technischen Vorgaben bzw. Einschränkungen gab es bezüglich der Gestaltung des Leitsystems?
Es existierte eine grobe Corporate-Design-Vorgabe in Bezug auf Logo und Farbe. Im Gespräch mit Kunden und Architekt wurden Layout und Textpositionen bestimmt. Jedoch erwiesen sich geometrische Festlegungen, Formatierung und die Darstellungen von Richtungspfeilen als kleine Zeitbomben. Teilweise mussten drei bis vier Zeilen auf kleinstem Raum untergebracht werden, was zu neuerlichen Layout- und Typografie-Anpassungen führte. Ein Beispiel: das Wort »Unfall-, Hand- und Plastische Chirurgie«. Ich kann verraten, dass sich hier die Schriftenfrage als besondere Herausforderung herausstellte.

Welche Rolle nimmt die Schrift in so einem Leitsystem ein? Welche Fonts hast du getestet und was hat schlussendlich dazu geführt, dich für die Wayfinding Sans als Schrift zu entscheiden?
Auf der Schrift lag zu Beginn unser Hauptaugenmerk. Auf Grund von Platzvorgaben, Abständen und Anordnung auf allen Schildern musste eine klar erkennbare, extrem gut leserliche und flexibel einsetzbare Schrift gefunden werden. Es kamen alle möglichen Schrifttypen zum Einsatz. Wir haben getestet, verworfen und erneut geprüft. Im Forum von Typografie.info wurden Ideen vorgestellt, diskutiert und fachmännisch beurteilt.
Die »üblichen Verdächtigen« wurden dabei ins Auge gefasst. FF Info, Frutiger etc., um nur einige zu nennen. Jede Schrift hatte ihre Vor- und Nachteile, bis wir schließlich die richtige Lösung fanden: die Wayfinding Sans von Ralf Herrmann. Diese Schrift bestand alle Anforderungen mit Bravour und stellte sich als die ultimative Universallösung heraus.



[headline=3]In wieweit hast Du bei der Beschilderung auf die architektonische Gestaltung bzw. auf die Innenarchitektur des Gebäudes Rücksicht nehmen müssen?[/headline]Wenn es nur nach dem Architekten gegangen wäre, hätten einige Schilder nicht montiert werden dürfen. Ich bin aber der Ansicht: Ein gutes System integriert sich in die Architektur, unterstreicht die Eleganz und Klarheit der Raum- und Flurplanung. Die Beschilderung sollte unauffällig, aber wirksam sein. Bei der Positionierung der vielen verschiedenen Schilder waren Ausnahmen die Regel und Sonderlösungen an der Tagesordnung. Da hängt am idealen Standort für ein Schild ein Feuerlöscher an der Wand oder ein Bild beansprucht den besten Platz für die Wegeführung. Dort, wo gebohrt werden muss, liegt ein Kabel unter Putz, oder ein Feuermelder blockiert den längst festgelegten Wandbereich. Trotz genauester Vorplanung kann man nie alle Unwägbarkeiten berücksichtigen. Und einen guten Projektmanager erkennt man auch daran, dass er mit diesen Herausforderungen flexibel umgehen kann.
Am 22. März wurde im Bauhaus-Archiv in Berlin die Ausstellung »Erik Spiekermann. Schriftgestalten« eröffnet. Die Veranstalter vom Bauhaus-Archivs waren wohl selbst überrascht, wie viele Besucher ein Vertreter einer in der Öffentlichkeit so wenig bekannten Kunst wie der Typografie bereits zu Vernissage anlocken kann. In einer intelligenten und kurzweilige Rede führte Johannes Erler (Factor Design) die Besucher in das »Prinzip Spiekermann« ein. Der Wortlaut des Vortrages kann im Fontblog nachgelesen werden.
Die Ausstellung, die noch bis 6. Juni 2011 besucht werden kann, zeigt einen Querschnitt der Arbeit des 63-jährigen Erik Spiekermann: von die Entwicklung seiner bekannten Schriften, über verschiedene Corporate-Design-Projekte, bis hin zur Gründung von FontShop.
Weitere Informationen gibt es auf der Webseite des Bauhaus-Archivs. Nachfolgend einige Bilder der Ausstellung.


Ein weiterer Klassiker des DDR-Schriftanbieters Typoart ist nun als digitale Version erschienen. Die Technotyp von Herbert Thannhaeuser erscheint in einer Digitalisierung von Coen Hofmann bei URW++.


 
Die digitale Version der Schrift Technotyp geht auf die Bleisatzversion des deutschen Typographen Herbert Thannhaeuser (1898-1963) zurück, die für die ostdeutsche Schriftgießerei Typoart Dresden entwickelt wurde. In dem Buch Der Schriftsetzer (Fachbuchverlag, Leipzig, 1952) zeigt der Autor Paul Fritzsche die damals neu erschienene Technotyp in all ihren Variationen. Fritzsche merkt an, dass die Werkschrift der Technotyp aufgrund ihrer ziemlich schmalen Form sowie ihrer relativ langen Oberlängen sehr gut als Textschrift verwendbar wäre, wenn man sie dann für die Satzmaschine produzieren (schneiden) würde. Aber das ist nie geschehen. Die Familie war immer nur für Handsatz verfügbar. Aber das hat sich jetzt geändert. Die komplette Familie dieser Slab-Serif-Schrift mit all ihrem Charme und Zeitgeist der 1950er Jahre ist ab sofort bei URW++ als digitale OpenType Schrift im »URW++ FontForum Programm« erhältlich (neben weiteren Schriften von Herbert Thannhaeuser, nämlich Garamond No. 4 und Magna). Die ursprüngliche Typoart-Version der Technotyp hatte nur für den Light-Schnitt eine Kursive. Die aktuelle Version bei URW++ hat Kursivschnitte für die Light, Regular, Medium und Bold, um den heutigen Anforderungen des professionellen Setzens und Gestaltens gerecht zu werden. Neben dem kompletten lateinischen Zeichenumfang beinhalten alle Schnitte auch den kyrillischen Zeichensatz.

Die Lizenzpreise belaufen sich auf 19,95 Euro je Schnitt. Das Komplettpaket (11 Schnitte) kostet 99,50 Euro. Weitere Informationen …
Während wir uns im ersten Teil der Serie mit den Vorläufern beschäftigt haben, geht es nun im zweiten Teil um die dominierenden computerbasierten Zeichenkodierungen in der zweiten Hälfte des 20. Jahrhunderts.
 
ASCII, die Basis aller Zeichensätze
»Nach der DNS gehört der ASCII zu den erfolgreichsten Codes auf diesem Planeten.« (Johannes Bergerhausen)

Der 1963 von der amerikanischen Standardbehörde ANSI (American National Standard Institute) verabschiedete ASCII-Kode (gesprochen »Esski«) ist bis heute eine der wichtigsten Zeichenkodierungen. Ziel war es, einen einheitlichen Standard zum Austausch von textbasierten Informationen einzuführen. ASCII steht für US American Standard Code of Information Interchange. Texte konnten damit herstellerunabhängig zwischen Rechnern ausgetauscht und an Ausgabegeräte wie Bildschirme und Drucker gesendet werden. Der ASCII-Zeichenkode ähnelt in seinem Grundprinzip dem Baudot-Kode der Telegrafie. Er ist jedoch ein auf sieben Bit basierender Zeichenkode und bietet somit Platz für 128 Zeichen, von denen 33 Steuerzeichen ausmachen und 95 typografischer Natur sind. Die Tabelle zeigt die Belegung der 128 Positionen des ASCII-Zeichensatzes.


 
Wie man sieht, vereint ASCII sowohl die Zeichen einer typischen amerikanischen Schreibmaschine als auch Steuerzeichen der Telegrafie. Letztere dienten zum Beispiel dazu, das Ausgabegerät telegrafischer Nachrichten anzuweisen, eine neue Zeile zu beginnen (Line Feed, Zeilenvorschub) und den Druckkopf wieder an den Zeilenanfang zu fahren (Carriage Return, Wagenrücklauf). Heute sind nur noch sehr wenige der Steuerzeichen in Benutzung.
 

Abbildung: Der Fernschreiber ASR-33 aus den 1960er Jahren war eines der ersten Geräte, das auf den ASCII-Kode setzte.

Vernünftiges Schreiben ist mit dem ASCII-Kode allerdings nur in Englisch möglich, da diakritische Zeichen anderer Sprachen fehlen. Aber auch spätere Zeichenkodierungen setzen allesamt auf dem ASCII-Standard auf. Und dies ist auch der Grund, warum es bei den Zeichen des ASCII-Kodes niemals zu »Sonderzeichensalat« kommt. ASCII ist als Teilmenge in allen Zeichenkodierungen enthalten und diese Zeichen können deshalb (im Gegensatz zu deutschen Umlauten) niemals falsch interpretiert werden.

ASCII-Art

Not macht erfinderisch: Vor der Einführung von grafikfähigen PCs waren die wenigen Zeichen des ASCII-Zeichensatzes die einzige Möglichkeit zur Schaffung von Bildelementen und Illustrationen. Unter Zuhilfenahme von dickengleichen Fonts wie der Courier konnten so einfache Strichgrafiken erstellt werden. In den Signaturen von Newsgroup-Nachrichten und E-Mails finden sich die ASCII-Bildchen teilweise noch heute.

8-Bit-Zeichenkodierungen – Ringen um einen Standard
»Acht Bit? Pro Zeichen? Klasse, dann ist man ja schon nach wenigen Wörtern stockbesoffen.« (aus dem Usenet)

Um auch Zeichen anderer Sprachen kodieren zu können, wurde der ASCII-Kode später auf die bis heute noch üblichen 256 Zeichen erweitert. Diese nunmehr auf 8 Bit ausgelegten Zeichenkodierungen bauen meist auf dem ASCII-Kode auf, enthalten aber an den zusätzlichen Positionen diakritische Zeichen, Umlaute, mathematische Zeichen, Interpunktionen, Währungszeichen und so weiter.
Die Geräte- und Software-Hersteller einigten sich allerdings nicht auf eine einheitliche Belegung der zusätzlichen Zeichen. Die folgende Tabelle zeigt zum Beispiel einen Vergleich der weit verbreiteten Zeichensätze für Windows (CP1252/ANSI) und Mac OS (Mac Roman).

Wie die Darstellung erkennen lässt, ist lediglich der ASCII-Bereich zwischen den Positionen 32 und 126 identisch belegt. Die meisten restlichen Zeichen befinden sich an unterschiedlichen Positionen. Andere oft verwendete Zeichen wie die Bruchzeichen am PC oder die fi- und fl-Ligaturen am Mac sind im jeweils anderen Zeichensatz überhaupt nicht vorhanden. Beim Austausch von Dokumenten zwischen Rechnern, die unterschiedliche Zeichenkodierungen benutzen, muss dies beachtet werden. Wenn zum Beispiel die deutschen Umlaute oder das Eszett durch andere Zeichen ersetzt werden, deutet dies auf einen falschen Zeichenkode hin.

Viele Anwendungsprogramme sind allerdings in der Lage, die Zeichenbelegung selbstständig umzukodieren. So können zum Beispiel Word-Dokumente meist relativ problemlos zwischen PC und Mac ausgetauscht werden. Das Programm kennt die unterschiedliche Belegung der Zeichen und passt diese beim Öffnen des Dokuments automatisch an. Dies gilt freilich nur für die Zeichen, die in beiden Zeichensätzen vorhanden sind – nicht verfügbare Zeichen fehlen oder werden mit dem Symbol not defined markiert – meist ein nicht gefülltes Rechteck.
Damit die Zeichenkodierungen korrekt erkannt und gegebenenfalls konvertiert werden können, muss die Information über die verwendete Kodierung natürlich zunächst erst einmal im Dokument vorhanden sein. Deshalb sollte die Benutzung von Reintextdateien (»TXT«) stets vermieden werden. Denn hierbei kann das Programm die benutzte Kodierung nicht erkennen und greift einfach auf die gerade benutzte Standardkodierung zurück. Dies führt dann nicht selten zum bekannten Sonderzeichensalat, der sicher jedem Computernutzer schon einmal begegnet ist.

Expert-Fonts
Für die für typografische Feinheiten nötigen Zeichen wie besondere Ligaturen, hoch- und tiefgestellte Ziffern, Schwungbuchstaben und so weiter ist in der Standardbelegung eines 8-Bit-Fonts kein Platz mehr. Deshalb war man hier lange auf die so genannten Expert-Fonts angewiesen. Diese verhalten sich wie ein 8-Bit-Font, haben aber an den Positionen der standardisierten Zeichensätze individuelle Zeichen, die sich durch den Formatierungswechsel zum Expert-Font in einen Text einfügen lassen.

Ein so formatierter Text ist allerdings nur noch mit den vorgesehenen Schriftarten benutzbar. Mit heutigen Unicode-basierten TrueType- und OpenType-Fonts sind diese Notlösungen zum Glück nicht mehr nötig und Expert-Fonts werden immer seltener eingesetzt.

ISO-8859-Zeichenkodierungen
Um den vielen voneinander abweichenden Zeichenkodierungen entgegenzuwirken, entwickelte die Internationale Organisation für Normen (ISO) bereits in den 1980er Jahren eine Serie von ISO-8859-Standards. Diese definieren 15 Normen von 8-Bit-Zeichenkodierungen:
 
ISO 8859-1 (Latin-1) - Westeuropäisch ISO 8859-2 (Latin-2) - Osteuropäisch ISO 8859-3 (Latin-3) - Südeuropäisch und Esperanto ISO 8859-4 (Latin-4) - Baltisch ISO 8859-5 (Kyrillisch) ISO 8859-6 (Arabisch) ISO 8859-7 (Griechisch) ISO 8859-8 (Hebräisch) ISO 8859-9 (Latin-5) - Türkisch statt Isländisch, sonst wie Latin-1 ISO 8859-10 (Latin-6) - Nordisch ISO 8859-11 (Thai) ISO 8859-13 (Latin-7) - Baltisch (ersetzt Latin-4 und -6) ISO 8859-14 (Latin-8) - Keltisch ISO 8859-15 (Latin-9) - Westeuropäisch mit Eurozeichen ISO 8859-16 (Latin-10) - Südosteuropäisch mit Eurozeichen Die Zeichenkodierung ISO-8859-1, auch bekannt als ISO Latin 1, ist der dominierende Standard in Westeuropa, den USA, Australien und großen Teilen Afrikas. Diese Zeichenkodierungen waren und sind insbesondere bei der Kommunikation über das Internet im Einsatz, um Inhalte plattformunabhängig austauschen zu können. Innerhalb vom Webseiten wird die zu verwendende Zeichenkodierung versteckt übertragen und der Browser dadurch angewiesen, die Standard-Zeichenkodierung gegebenenfalls zu wechseln:
meta http-equiv="Content-Type" content="text/html; charset=iso-8859-1" Fehlt diese Angabe, werden Texte unter Umständen falsch interpretiert, zum Beispiel, wenn eine deutschsprachige Webseite mit Umlauten und Eszett in Osteuropa abgerufen wird.

Die 8-Bit-Zeichenkodierungen werden zunehmend vom Unicode-Standard verdrängt. Dazu mehr im letzten Teil der Serie.

Bildnachweise:
 
1. Bild, Rechenzentrum Aachen, Deutsches Bundesarchiv, B 145 Bild-F031434-0011, Quelle Bild: ASR-33, Quelle: Wikipedia Commons. Nutzer: AlisonW
Dem Europäer sind zwei Pünktchen über einem Vokal in der Regel wohl vertraut. Franzosen, Griechen und Niederländer kennen die Pünktchen als Diärese. Das klingt nach einer schlimmen Krankheit, bedeutet aber nur, dass aufeinanderfolgende Vokale getrennt ausgesprochen werden müssen, etwa in »Citroën«. Für jene, die die deutsche Sprache benutzen, kennzeichnen die Pünktchen eine Vokalveränderung und bilden heute jeweils einen eigenen Buchstaben, eine Art Wurmfortsatz des »normalen« Alphabets. Wieviele Buchstaben hat das Alphabet? 26! Moment, äh, plus ein paar Zerquetschte: ä, ö, ü und das leidgeplagte Eszett. Wer einen Umlaut im Namen trägt, hat selten Freude daran. Wieviele E-Mails die Jörgs und Dörtes nie erreichen werden, weil die Umlaute vorher nicht korrekt in ihre historischen Bestandteile aufgelöst wurden, mag man kaum erahnen. Denn die heute verwendeten Pünktchen basieren auf nichts anderem als einem »e« dass in gebrochenen Schriften vermehrt über statt hinter den Vokal geschrieben wurde. In der Kurrentschrift glich das »e« eher zwei schrägen Strichen, die sich immer weiter vereinfachten und heute mit dem aus Punkten bestehenden Zeichen der Diärese (Trema genannt) vereinheitlicht sind.



Dass Umlaute im Gegensatz zu allen englischen Zeichen bis heute am Computer Ärger machen, liegt am berühmt-berüchtigten ASCII-Zeichensatz. Der American Standard Code for Information Interchange wurde in der uns heute bekannten Form 1967 veröffentlicht und eignete sich prima, Texte in englischer Sprache unabhängig von der verwendeten Hard- und Software zu kodieren. Die Europäer mit ihren unzähligen Häkchen, Strichen, Pünktchen und Hütchen auf und unter den Buchstaben blieben zunächst außen vor.
Es steht wohl in keinem direkten Zusammenhang, aber zwei Jahre nach der Veröffentlichung des ASCII-Standards veröffentlichte die deutsche Rockband »Amon Düül II« ihr erstes Album. Die »Krautrocker« verwendeten die Umlaute in ihrem Namen nicht ohne Grund, denn Düül ist die korrekte Schreibweise einer türkischen Sagenfigur. Doch plötzlich waren mit den «Heavy Metal Umlauts« (auch «Röck Döts« genannt) ein Trend geboren, der die Pünktchen völlig von ihrer sprachlichen Funktion befreite. Blue Öyster Cult und Motörhead nannten sich später Bands, die mit den Pünktchen nicht die Aussprache, sondern die Aussage ändern wollten. »I only put it in there to look mean«, soll der Grafiker des ersten Motörhead-Albums gesagt haben. Auch die Band Mötley Crüe hatte eigentlich lediglich eine Dekoration im Sinn, musste bei ihren Konzerten in Deutschland aber erfahren, dass ihre Pünktchen natürlich ernst genommen wurden, wenn die Menge »Möttleh Krü-e« brüllte.
Metallica haben sich die Haare abgeschnitten und der Heavy Metal ist tot. Doch die dekorativen Umlaute sind im Englischen präsenter denn je. Ein Streifzug durch einen Supermarkt oder die Straßen einer nordamerikanischen Stadt fördert Erstaunliches zu Tage (siehe nachfolgende Bilderserie). Die Pünktchen sollen nicht mehr »böse« sein, sondern eher exotisch oder – in vielen Fällen – ein Verweis aufs Deutsche.


 
Eine Müslix-Packung mit Umlaut verwundert den Deutschen auch im Englisch-sprachigen Ausland noch nicht allzu sehr. Man sollte nur vermeiden, an der Kasse über die Aussprache der Frühstückscerialien zu diskutieren.


 
Dieses kanadische Unternehmen suchte für sein Leckereien-Geschäft einen coolen Kunstnamen. Während Yogen so etwas wie Joghurt implizieren sollte, hat man in Fruz nach eigenen Angaben frozen, fruit und fresh vereint. Eine Extraportion Pünktchen kann natürlich nie schaden.


 
Dieses europäische Restaurant in Toronto lädt zum Festivül. Die Umlaute als klarer Bezug zur deutschen Braukunst sind bewusst eingesetzt.


 
Schwarzkopf hat Emigres guten alten Trendfont Template Gothic wieder ausgegraben. Um dem Ganzen noch eine buchstäbliche Krone aufzusetzen, wird der deutsche Haarkleber in den USA als göt2be angeboten.


 
Dieses Unternehmen hat den Umlaut zum essenziellen Bestandteil der Corporate Communication gemacht. Der Firmenslogan lautet »Life from a different point of vü«, und auch sonst ist jedes Vorkommen von view durch vü ersetzt.


 
Für deutsche Unternehmen bietet sich das Spiel mit der deutschen Sprache natürlich besonders an. Volkswagen warb in Kanada mit dem Slogan Fast as schnell und Mercedes-Benz bedient sich Kunstwörter wie Überkewl und Überblast: »The B-Class is the ultimate in überkewl«.
Der amerikanische Schriftanbieter P22 veröffentlicht den Dokumentarfilm “Making Faces: Metal Type in the 21st Century” auf DVD.
Der Film begleitet den kürzlich verstorbenen Designer Jim Rimmer beim Entwurf und der Fertigung einer Bleisatz-Schrift, die als RTF Stern auch zeitgleich als digitale Version erschien. Die Dokumentation hat eine Spiellänge von 45 Minuten. Als Bonusmaterial enthält die DVD den Stummfilm The Creation of a Printing Type from the Design to The Print by Frederic W. Goudy aus den 1930er Jahren.
Die DVD kann aktuell bei P22 zu einem Einführungspreis bestellt werden. Zusammen mit den Versandkosten nach Europa beträgt der Endpreis 31,35 Dollar.

http://p22.com/products/makingfaces.html
 

Unseren heutigen Computertastatur sehen wir ihren Ursprung in der Schreibmaschine noch gut an. Man könnte auch spöttisch sagen: Viel hat sich nicht verändert. Zwar sind einige Funktions- und Steuertasten hinzugekommen, aber die Anordnung der alphanumerischen Zeichen ist aber seit mehr als hundert Jahren fast unverändert …


 
Die 1874 vorgestellte Schreibmaschine des amerikanischen Unternehmens Remington & Sons war das erste Gerät seiner Art, das mit circa 5000 hergestellten Exemplaren ein kommerzieller Erfolg wurde (Abbildung oben). Als Sholes & Glidden Typewriter prägte diese Schreibmaschine auch für alle Zeit den englischen Begriff Typewriter. Sie basierte erstmals auf dem bis heute verwendeten QWERTY-Layout, dessen Name sich von den ersten sechs Zeichen der obersten Alphabetreihe dieser Schreibmaschine ableitet. Man mag sich fragen, wie es zu dieser scheinbar chaotischen Zeichenanordnung gekommen ist. Die ersten Prototypen des Erfinders Christopher Sholes arbeiteten zunächst mit einer dem Alphabet nach geordneten Tastatur. Diese Maschinen stellten sich aber als äußerst störanfällig heraus, da sich die Typenhebel, die beim Anschlagen des Buchstabens gegen die Seite schnellten, beim Schreiben immer wieder ineinander verhakten, besonders dann, wenn sie eng nebeneinander lagen. Sholes konnte dieses Problem verringern und die Schreibgeschwindkeit beträchtlich erhöhen, indem er die Tastenpositionen so veränderte, dass typische Buchstabenkombinationen der englischen Sprache möglichst weit auseinander lagen.
Das Ergebnis ist die QWERTY-Tastatur, die auch heute noch in Anwendung ist, obgleich Computertastaturen längst keine Typenhebel mehr benötigen.
 

(Abbildung: Christopher Sholes Patent für das QWERTY-Layout aus den 1870er Jahren.) 
 
Im Jahr 1878 wurden das neue Modell Remington No. 2 dann auch schon um die bis heute gebräuchliche Hochstelltaste erweitert, die den Wechsel zwischen Groß- und Kleinschreibung ermöglichte. Trotz einiger Versuche, andere Tastenbelegungen zu etablieren, setzte sich die QWERTY-Tastatur in Sprachen mit dem lateinischen Alphabet meist durch – teils mit sprachbedingten Abwandlungen. So unterscheidet sich die deutsche Belegung bekanntlich durch die vertauschten Buchstabenpositionen Z und Y von der QWERTY-Tastatur.


 
Dass die Möglichkeiten beschränkt sind, mit einer Schreibmaschine einen typografisch ansprechenden Schriftsatz zu erstellen, ist offensichtlich. Dies liegt nicht nur in der Eigenschaft der Schreibmaschine begründet, dass jedes Zeichen gleich breit ist, sondern auch in dem viel zu beschränkten Zeichensatz. Auch als der Computer langsam die Schreibmaschine verdrängte, änderte sich daran wenig. Denn die Computer waren zunächst ihrer Bezeichnung gemäß »Rechner«, die Zahlen und Daten verarbeiten und auf Lochkarten, elektrischen Schreibmaschinen und Nadeldruckern ausgeben. Der mit der Verbreitung des Computers immer wichtiger werdende ASCII-Zeichensatz trug diesem Einsatz Rechnung. An typografische Zeichen – wie verschiedene Formen von Anführungszeichen – war deshalb noch nicht zu denken. Stattdessen finden sich im ASCII-Zeichensatz noch einige Sonderzeichen als deutlich sichtbare Relikte der Schreibmaschine und der Telegrafie-Geräte, wie zum Beispiel Glocke und Wagenrücklauf (Carriage Return).

Computer-Tastaturen
“Error, keyboard not found — press F1 to continue” (Computer-Fehlermeldung)


 
Entsprechend der benutzten Zeichensätze entwickelten sich auch die Tastaturen weiter. Während die meisten Geräte der frühen Computer-Ära noch integrierte Tastaturen hatten, entschied sich IBM, diese für ihre PCs als anschließbares Eingabegerät auszulagern. Dies wurde ebenso schnell zum Standard wie das von IBM gewählte Tastaturlayout, bestehend aus 83 Tasten, das durch seine große Verbreitung nach und nach die Layoutvarianten der Computer der 1980er Jahre verdrängte. Die Aufteilung der Computer-Tastaturen war zunächst zwar vielfältig, aber unterschied sich im Kern nicht wesentlich von den Tastaturen der Fernschreiber und der elektrischen Schreibmaschinen: alle Tasten, einschließlich der Steuer- und Cursor-Tasten, waren zu einem recht unübersichtlichen Block zusammengefasst. 
Mit der von IBM später auf 102 Tasten erweiterten Tastatur kristallisierte sich aber schon in den 1980er Jahren das bis heute übliche Tastaturlayout mit seinen funktional getrennten Bereichen heraus.
Deutsche Standard-PC-Tastatur (gültig in Deutschland und Österreich):



Auch die Tastaturen der Apple-Rechner benutzen heute ein vergleichbares Layout, auch wenn sich einige Steuerungstasten in Position und Funktion etwas unterscheiden.



Kuriosum: Alte japanische Tastatur im Deutschen Museum, München



Steuerungstasten in der Textverarbeitung
Viele Computer-Anwender nutzen die Möglichkeiten der Tastatur nicht in vollem Umfang aus, da die Bedeutung und der Einsatz aller Steuerungstasten nicht immer klar ist. 


 
Die Computer-Maus sollte übrigens bei der Arbeit mit Textverarbeitungsprogrammen eigentlich eine Nebenrolle spielen. Es ist nicht nur umständlich und zeitraubend, zwischen dem Tippen mit beiden Händen immer wieder zur Maus zu wechseln, um zum Beispiel Textabschnitte zu markieren oder innerhalb des Dokuments zu navigieren. Oft ist es schlicht unpräzise oder gar unmöglich, Abschnitte auf das Zeichen genau und teilweise über mehrere Seiten hinweg auszuwählen. Mit einfachen Tastaturkürzeln lässt sich die Arbeit mit Textverarbeitungsprogrammen wesentlich vereinfachen und beschleunigen. Die Kürzel sind übrigens meist identisch in allen Anwendung benutzbar, die mit Text arbeiten. Das Erlernen lohnt sich also nicht nur für die Arbeit in Word und Co, sondern funktioniert auch in Layout-Programmen, Browsern und so weiter.

Navigieren in Textdokumenten:
Ein Zeichen nach links springen:   ←   Ein Zeichen nach rechts springen:   →   Ein Zeichen nach oben springen:   ↑   Ein Zeichen nach unten springen:   ↓   Einen Bildschirm nach oben springen:   Bild ↑   (PC)   ⇞   (Mac) Einen Bildschirm nach unten springen:   Bild ↓   (PC)   ⇟   (Mac) An den Anfang der Zeile springen:   Pos 1   (PC)   ↖   (Mac) An das Ende der Zeile springen:   Ende   (PC)   ↘   (Mac) Ein Wort nach links springen:   STRG   +   ←   (PC)   Wahl   +   ←   (Mac) Ein Wort nach rechts springen:   STRG   +   [/key] (PC) [key]Wahl   +   →   (Mac) Einen Absatz nach oben springen:   STRG   +   ↑   (PC)   Wahl   +   ↑   (Mac) Einen Absatz nach unten springen:   STRG   +   ↓   (PC)   Wahl   +   ↓   (Mac) Einen Seite nach oben springen:   STRG   +   Bild ↑   (PC)   Wahl   +   ⇞   (Mac) Einen Seite nach unten springen:   STRG   +   Bild ↓   (PC)   Wahl   +   ⇟   (Mac) An den Anfang des Dokuments springen:   STRG   +   Pos 1   (PC)   Wahl   +   ↖   (Mac) An das Ende des Dokuments springen:   STRG   +   Ende   (PC)   Wahl   +   ↘   (Mac) Markieren in Textdokumenten:
Das Markieren innerhalb von Textdokumenten funktioniert mit den gleichen Tastaturkürzeln wie das Navigieren. Es muss lediglich zusätzlich die Umschalttaste (»Shift«) gedrückt werden.

Typische Bearbeitungsfunktionen:
Alles markieren:
  STRG   +   A   (PC)   Befehl   +   A   (Mac) Markierten Bereich ausschneiden:
  STRG   +   X   (PC)   Befehl   +   X   (Mac) Markierten Bereich kopieren:
  STRG   +   C   (PC)   Befehl   +   C   (Mac) Aus der Zwischenablage einfügen:
  STRG   +   V   (PC)   Befehl   +   V   (Mac) Letzte Bearbeitung rückgängig machen:
  STRG   +   Z   (PC)   Befehl   +   Z   (Mac) Markierung oder Zeichen rechts löschen:   Entf. ⌦   Zeichen links löschen:   ⇦    
 
Bild: Sholes & Glidden Type-Writer: Wikipedia Commons, Benutzer Kosmopolitat Illustration: Textverarbeitung: Kai Meinig, Weimar Sonstige Bilder: Public Domain
Apple kündigte gerade die neuen MacBook Pros an und feiert dies wie immer bescheiden als Durchbruch und die neuen Funktionen als riesige Schritte vorwärts. In Sachen Rechtschreibung macht man jedoch einen klaren Schritt zurück. Apple verzichtet im deutschsprachigen Raum anscheinend ab sofort konsequent auf jegliche Koppelungsstriche.

Dabei verhielt sich Apple bislang bei der Lokalisierung doch recht löblich. Die Steuerungstasten am Mac bekamen wohlklingende deutsche Bezeichnungen wie Umschalttaste und Wahltaste. Und die spezifischen Benutzerordner des Betriebssystems heißen auf deutschen Rechnern Filme, Bilder und so weiter.
Doch von dieser Strategie scheint man sich zunehmend zu verabschieden. Im aktuellen »deutschen« Werbespot wird erklärt, dass man mit dem iPhone Four (nicht vier) ja viel länger facetimen kann. Und auch die Rechtschreibung wird nun offenbar aus Cupertino importiert, da die aktuelle Produktvorstellung der MacBook Pros keinen einzigen deutschen Koppelungsstrich mehr enthält.

Der Bindestrich hat es ja in der kommerziellen Produkt- und Werbewelt im deutschsprachigen Raum schon immer schwer. Die Corporate Language verbietet es oft, Markennamen in irgend einer Weise mit einem Bindestrich zu schreiben. Und auch auf Supermarktverpackungen findet man das nützliche Strichlein immer seltener. Da mutiert die SCHLAG SAHNE plötzlich zu einer Aufforderung, selbst wenn sie uns gar nichts getan hat. Und der Tetra Pak weist uns stur darauf hin, dass er VOLL MILCH ist, selbst wenn wir ihn schon ausgetrunken haben.
Zumindest in Fließtexten wird der Bindestrich dann aber meist doch korrekt verwendet. Apple macht damit aber jetzt Schluss, wie sämtliche Produktseiten zum neuen MacBook Pro beweisen:
Neueste Quad-Core Prozessoren Thunderbolt Technologie FaceTime HD Kamera die 15" und 17" MacBook Pro Modelle mit dedizierten AMD Radeon Grafikprozessoren mit der neuen I/O Technologie Turbo Boost Geschwindigkeiten integrierter Intel HD Graphics 3000 Prozessor HD Videotelefonate bei 3D Spielen MagSafe Netzanschluss FireWire 800 Anschluss Wi-Fi Technologie Die Liste ließe sich endlos fortsetzen. Das Phänomen wird umgangssprachlich gern als Deppenleerzeichen bezeichnet. Der Bindestrich ist auch nicht versehentlich im Übersetzungsbüro verloren gegangen. Ein Blick auf die englische Seite zeigt, dass die im Englischen üblichen Bindestriche allesamt übernommen wurden. Nur die zum Durchkoppeln im Deutschen nötigen Striche wurden – wie der Name schon sagt – gestrichen.
 


Abbildung: Wir halten Mittagsschlaf. Bitte wecken Sie uns! Ein Deppenleerzeichen kann das Erfassen der gemeinten Botschaft beträchtlich stören. Quelle: Flominator bei Flickr

So geht es richtig!
Aber wie wird dieses Wirrwarr aus englischen Fachbegriffen, Abkürzungen und Eigennamen nun im Deutschen korrekt verwendet? Die Begriffe können zunächst einmal in ihrer ursprünglichen Schreibung im Deutschen verwendet und gebeugt werden.
das MacBook Pro die MacBook Pros Sobald die Fremdwörter und Eigennamen aber in deutschen Komposita verwendet werden, müssen sie sich auch deren Regeln unterwerfen. Und dies heißt im Deutschen: alles durchkoppeln!
die MacBook-Pro-Modelle – korrekt! die MacBook Pro-Modelle – falsch! die MacBook Pro Modelle – auch falsch! Weitere Beispiele aus obiger Liste:
Neueste Quad-Core-Prozessoren Thunderbolt-Technologie FaceTime-HD-Kamera die 15"- und 17"-MacBook-Pro-Modelle Alternativen
Wer sich an der Flut von Bindestrichen stört, kann im Zweifel auf zwei Alternativen zurückgreifen. So ist es ebenfalls korrekt, den gesamten englischen Begriff mit nur einem Bindestrich zu koppeln, wenn der Begriff durch Anführungszeichen zu einem einzelnen Ausdruck zusammengefasst wird:
Intel-HD-Graphics-3000-Prozessor (Standardschreibweise) „Intel HD Graphics 3000“-Prozessor (alternative Schreibweise) Und nicht selten kann durch einfache Umstellungen des Satzes das Durchkoppeln gänzlich vermieden werden. Aus den MacBook-Pro-Modellen mit Intel-HD-Graphics-3000-Prozessor werden dann einfach die Modelle des MacBook Pros mit dem Prozessor Intel HD Graphics 3000.
 
Die digitale Welt spricht heute immer mehr Unicode – den Weltzeichenstandard, der jedes Sinn tragende Zeichen aller Sprachen dieser Welt erfasst und ihnen einen einzigartigen, unverwechselbaren Kode zuweist. Doch vom indianischen Rauchzeichen bis zum Unicode war es ein langer Weg. Typografie.info erzählt diese spannende Geschichte. 
Grundlagen der Kodierung und Übertragung von Zeichen
»Sehen Sie, der Telegraf ist eine Art sehr, sehr langer Katze. Man zieht in New York an ihrem Schwanz, und sie miaut in Los Angeles.« Albert Einstein

Der Mensch kann Informationen in erster Linie durch den Klang der gesprochenen Sprache oder schriftbildlich wahrnehmen und verstehen. Wenn Klang oder Schrift aber nicht direkt übertragbar sind, muss eine dem Signalweg angemessene Kodierung benutzt werden. Klopf- und Rauchzeichen sind altbekannte Vertreter solch einer Kodierung. Damit die so verschlüsselte Information verstanden werden kann, müssen Sender und Empfänger sich auf einen einheitlichen Schlüssel zum Kodieren und Dekodieren einigen – eine leicht nachvollziehbare Tatsache, doch bis heute eine der häufigsten Fehlerquellen bei der Arbeit mit Text am Rechner.
Bratpfannen und Ohrenschmerzen – Die Geburt der Telegrafie
Das erste funktionierende Signalsystem, das als direkter Vorläufer des Telegrafen bezeichnet werden kann, wird dem Franzosen Claude Chappe zugeschrieben. Er modifizierte Ende des 18. Jahrhunderts zwei Uhren so, dass deren Sekundenzeiger mit doppelter Geschwindigkeit über zehn Ziffern kreisten. Claude Chappe und sein Bruder René nahmen in einigen hundert Metern Entfernung Aufstellung. Die zuvor synchronisierten Uhren konnten nun zur Übertragung von Botschaften genutzt werden, indem Claude wartete, bis die zu übertragende Ziffer vom Sekundenzeiger überfahren wurde und zeitgleich auf eine Bratpfanne schlug. Boiinnng! René hörte den Ton und konnte an seiner Uhr die Ziffer ablesen. Ein nummeriertes Wörterbuch diente dabei als Kodebuch, um die übertragenen Ziffern wieder in Buchstaben, Wörter und Sätze zurückzuwandeln. Neben der Lärmbelästigung bestand allerdings das unumstößliche Problem, dass sich Sender und Empfänger immer in Hörweite zueinander befinden mussten. Je nach Windrichtung waren also kaum mehr als einige Hundert Meter Übertragungsweg möglich.
 

Soweit das Auge reicht
Chappe erkannte, dass es wahrscheinlich sinnvoller wäre, statt eines hörbaren Signals ein sichtbares zu verwenden. An die Stelle der Pfannen traten also schwenkbare Holztafeln, die an einer Seite weiß, an der andern schwarz gestrichen waren. Während der Sekundenzeiger der Chappe-Uhren über eine bestimmte Ziffer strich, konnte diese durch Schwenken der Tafel übertragen werden. Nahm der Empfänger ein Teleskop zu Hilfe, waren schon beträchtliche Entfernungen möglich. Die Erfindung wurde Télégraphe (»Fernschreiber«) getauft. Chappe fand später eine Methode, ohne sychronisierte Uhren auszukommen. An einem Balken wurde ein drehbarer Querbalken angebracht, dessen Enden wiederum mit zwei Flügeln bestückt waren, die sich in 45-Grad-Schritten drehen ließen. So konnten über Seilzüge 98 mögliche Kombinationen eingestellt werden. Über Kodebücher konnte man 92 mal 92, also 8464 Wörter und Phrasen übermitteln. Wurden mehrere Türme in Sichtweite zueinander aufgestellt, in denen die Nachrichten der benachbarten Stationen weitergeleitet wurden, ließen sich beliebige Entfernungen überbrücken. Die französische Nationalversammlung erkannte das Potential der Erfindung, und im Mai 1794 nahm die erste Strecke des französischen Staatstelegrafen von Paris nach Lille ihren Dienst auf – vornehmlich zum Senden von militärischen Informationen. Der optische Telegraf wurde mit verschiedensten Patenten aus Balken oder Klappen auch in anderen Ländern schnell ein großer Erfolg. In den 30-er Jahren des 19. Jahrhunderts erstreckten sich bereits lange Reihen von Telegrafen-Türmen über einen großen Teil Westeuropas. Ein mechanisches Internet war geboren.
 

Die Mönchskette
Der Betrieb der optischen Telegrafen war jedoch nicht nur teuer, sondern immer noch von Tageslicht und guten Sichtverhältnissen abhängig. Schon das Aufziehen von Nebel konnte die Nachrichtenübertragung vereiteln. Die Idee eines elektrischen Telegrafen spukte in den Köpfen vieler Erfinder und Tüftler herum, galt aber zur damaligen Zeit als utopisch. Denn vor Erfindung der Glühbirne durch Thomas Edison scheiterte man schon daran, wie überhaupt Strom in einer Leitung nachzuweisen ist, geschweige denn sichtbar gemacht werden kann. Ein besonders anschauliches Experiment zur Erkundung der Elektrizität veranstaltete der französische Wissenschaftler Abbé Jean-Antoine Nollet bereits im Jahr 1746. Er ließ in Paris etwa 200 Mönche eine Kette bilden, wobei jeder Mönch in beiden Händen einen 7,5 Meter langen Eisendraht hielt, der ihn mit seinem Nachbarn verband.
So ergab sich eine leitfähige Verbindung von über einer Meile. Nollet schickte nun ohne Vorwarnung Strom durch die »Mönchsleitung«, und der Elektroschock beutelte alle aufs Ärgste durch, wodurch die Eigenschaften des elektrischen Stroms anschaulich sichtbar wurden. Nollet machte damit die bedeutende Entdeckung, dass sich Strom offenbar über weite Entfernungen und ohne merklichen Zeitverlust übertragen lässt.
Lange Leitungen
1820 fand man in der Entdeckung des Elektromagnetismus eine schonendere Methode, elektrischen Strom sichtbar zu machen. Über einen Elektromagneten und den Ausschlag der rotierenden Nadel eines Galvanometers konnte der Stromfluss erstmals zuverlässig abgebildet werden. Mit solch einem Elektromagneten kam Samuel F. B. Morse der Legende nach im Jahr 1832 auf einer Heimreise mit dem Schiff von Europa nach Amerika in Berührung. Ein anderer Passagier, der einen Elektromagneten und allerlei andere elektrische Utensilien mit sich führte, erklärte, dass Strom eine Leitung beliebiger Länge ohne Zeitverzögerung passieren könne. Morse, seines Zeichens Maler von Beruf, war wie vom Blitz getroffen. »Wenn das Vorhandensein von Elektrizität in jedem beliebigen Teil des Stromkreises sichtbar gemacht werden kann«, sagte er angeblich, »sehe ich keinen Grund, warum Informationen nicht mittels Strom in jede Entfernung übertragen werden könnten, und zwar ohne Zeitverlust.« Noch während der Schiffsfahrt entwickelte Morse ein binäres System zur Kodierung der Nachrichten. Denn er erkannte schnell, dass über ein Stromsignal lediglich zwei Zustände (Strom fließt/Strom fließt nicht) übertragen werden konnten. Die mannigfaltigen Kodierungsformen der optischen Telegrafen waren also hier unbrauchbar. Morse entschied sich daher, kurze und lange Stromstöße zu verwenden, die wir noch heute in ihrer transkribierten Form als Punkte und Striche des nach ihm benannten Morse-Alphabets kennen.
Auch in England arbeitete man zeitgleich an elektrischen Telegrafen. Doch auf beiden Seiten des Atlantiks traten die gleichen Schwierigkeiten auf. Zum einen bereitete es größere Probleme als erwartet, den Strom tatsächlich über weite Entfernungen zu schicken, und zum anderen war es ebenso schwierig, Regierungen und Geschäftskunden von den Vorzügen des elektrischen Telegrafen gegenüber den bereits etablierten und funktionierenden optischen Telegrafen zu überzeugen. Die ersten Kunden waren zumeist Eisenbahngesellschaften, die elektrische Telegrafen-Leitungen neben ihre Gleisstrecken legten. Diese Leitungen verhalfen der Telegrafie erst dann zu viel öffentlichem Aufsehen, als sie immer wieder halfen, Diebe und Verbrecher zu fangen. Vor der Telegrafie konnten diese nämlich stets bequem und unbehelligt mit der Bahn flüchten, da die Nachricht über die Fahndung nie schneller sein konnte als die Bahn selbst. Doch nach einem simplen Telegramm, wie die telegrafischen Mitteilungen nun hießen, wurden die Flüchtigen nun schon von der Polizei am nächsten Bahnsteig erwartet.
 

Abbildung: Englischer 5-Nadel-Telegraph. Diese System konnte durch Auslenkung zweier Nadeln direkt den übertragenen Buchstaben anzeigen. (hier: V)
Die Welt wurde verkabelt
In der Mitte des 19. Jahrhunderts beginnt sich das Telegrafennetz fast explosionsartig auszubreiten – vor allem in den Vereinigten Staaten, die nun durch eine transkontinentale Telegrafenleitung von der Ost- bis zur Westküste verbunden waren. Die allgemeine Skepsis weicht einer breiten Begeisterung über die neuen Möglichkeiten, und die Telegrafie wird zu einem alltäglichen Bestandteil im Geschäftsbereich und im Privatleben. 1865 wird nach mehreren missglückten Versuchen selbst der Atlantik mit einer unter Wasser verlegten, telegrafischen Leitung überwunden.

Die Telegrafie wird rasch so erfolgreich, dass das Netzwerk unter der Last der Nachrichten zusammenzubrechen droht. Im Jahr 1875 beherbergte das zentrale Londoner Telegrafenamt bereits 450 telegrafische Instrumente auf drei Etagen, die durch 68 interne pneumatische Rohre miteinander verbunden waren, über die per Dampfbetrieb die Nachrichten weitergeleitet werden konnten.
Automatische Telegrafen
So schnell die Botschaft auch telegrafiert werden konnte, man benötigte zur Übertragung der Mitteilung immer noch Botenjungen, die von der nächstgelegenen Telegrafie-Zweigstelle die Nachricht zur Adresse des Empfängers brachten. Speziell für die immer schneller reagierende Börse und deren Händler bot es sich an, Preise automatisiert weitergeben zu können. 1867 wurde ein System entwickelt, bei dem Aktiennamen und deren aktuelle Preise in zwei Zeilen auf einen fortlaufenden Papierstreifen gedruckt werden konnten. Das Ausgabegerät bekam auf Grund seines Geräusches den noch heute bekannten Namen »Ticker« und wurde kurzzeitig zu einem Riesenerfolg. Doch nun machte man sich daran, nicht nur den Empfang zu automatisieren, sondern auch die Eingabe der Telegramme zu beschleunigen und zu vereinfachen – eine Arbeit, die bislang nur von erfahrenen Telegrafisten erledigt werden konnte. Der ABC-Telegraf von Charles Wheatstone hatte zwei Scheiben ähnlich eines Uhrziffernblattes, die mit den Buchstaben des Alphabets versehen waren. Eine Scheibe diente zum Ablesen eingehender Telegramme, die andere zum Senden. Durch Betätigung der Knöpfe neben den Buchstaben und Drehen einer Kurbel konnte das Telegramm ohne Kenntnis des Morse-Alphabets versandt werden. Das Läuten einer Glocke zeigte den Eingang eines neuen Telegrammes an.
[headline=3]Binärkodes[/headline]Das menschliche Gehirn ist der Lage, verschiedenste visuelle Repräsentationen eines Zeichens zuzuordnen. So bereitet es uns kaum Schwierigkeiten, alle diese doch sehr unterschiedlichen Varianten als den Buchstaben »A« zu identifizieren.

Rechner können auf Betriebssystem-Ebene lediglich zwei Zustände unterscheiden, welche meist als »Null« und »Eins« bezeichnet werden. Man nennt dieses System auch ein Bit (von »binary digit«), die beiden Zustände Bitwerte. Um mehr als nur zwei Zustände wiedergeben zu können, werden mehrere Bits gruppiert. So ermöglichen zwei Bit vier Zustände (00, 01, 10 und 11), drei Bit schon acht (000, 001, 010, 011, 100, 101, 110, 111). Allgemein ausgedrückt lassen sich mit n Bit 2 hoch n Zustände darstellen.
Solch ein Zweizustandssystem ist jedoch schon wesentlich älter als die moderne Rechnentechnik. Bereits 1605 erfand Sir Francis Bacon im Alter von 17 Jahren den Kode »omnia per omnia« – eine zweiwertige Zeichenkodierung, die es ermöglichte, beliebige Botschaften über Texte, Töne oder Lichtsignale in verschlüsselter Form zu übertragen. Der Schlüssel, den Bacon zum Kodieren und Dekodieren verwendete, sah folgendermaßen aus:
 
A: aaaaa B: aaaab C: aaaba D: aaabb E: aabaa F: aabab G: aabba H: aabbb und so weiter Wie man sieht, konnte Bacon auf diese Weise alle Zeichen des Alphabets mit einer 5-stelligen Folge von nur zwei Zuständen (hier a und b) eindeutig kodieren. Diese Tabelle, also die Zuordnung von Zeichen zu einem bestimmten Kode, nennt man Zeichenkodierung. Solange Sender und Empfänger den gleichen Zeichenkode als Schlüssel verwenden, kann die Nachricht korrekt übermittelt werden. Bacons Kode diente allerdings zunächst ausschließlich der Verschlüsselung von Geheimbotschaften, indem zum Beispiel die Zustände nicht direkt durch eine Abfolge von a und b, sondern durch den Wechsel zwischen Groß- und Kleinschrift in einen Text integriert wurden. Zur Übertragung von Informationen über weite Strecken wurde der Kode noch nicht verwendet. Dies geschah wie schon seit Jahrhunderten zuvor ausschließlich per berittener Boten.
Da Texte im Computer stets in solchen zweiwertigen Folgen, den Binärzahlen, gespeichert und übertragen werden, dient eine Zeichenkodierung am Rechner der Zuordnung der Zeichen zu einer korrespondierenden Binärzahl.

Deshalb kann der Text nur bei Anwendung der richtigen Zeichenkodierung korrekt entschlüsselt werden. Eine andere Kodierung kann für die gleichen Binärkodes mit völlig anderen Zeichen hinterlegt sein.
Der Baudot-Kode
1874 entwickelte Jean Maurice Emile Baudot von der französischen Telegrafenverwaltung eine neue Form des Telegrafen, die die Kapazität der Leitung noch einmal drastisch erhöhte. Über synchronisierte Verteilerarme an beiden Enden der Leitung konnte nun die Last von 12 Leitungen erreicht werden. Baudot setzte allerdings nicht den üblichen Morse-Kode ein, sondern einen Binärkode aus fünf Zeichen – nach dem gleichen Prinzip, wie ihn Sir Francis Bacon bereits für seine Verschlüsselung benutzt hatte. Der einzige Unterschied bestand darin, dass Baudot nun für jedes Zeichen eine Sequenz von fünf Stromimpulsen benutzte, die jeweils entweder positiv oder negativ sein konnten. Am Empfängerende wurde die Nachricht automatisch als Schriftzeichen auf einem Papierstreifen ausgegeben. Mit einer solchen 5-Bit-Sequenz ließen sich im später standardisierten »International Telegraph Alphabet« 32 Zustände (2⁵) übertragen, also gerade genug Platz für das Alphabet. Der ab 1930 standardisierte Kode zur Telegrafie ITA2 enthielt auch erstmals Steuerzeichen, mit denen Anweisungen an das Empfangsgerät gesendet werden konnten, zum Beispiel zum Läuten einer Glocke. Zudem konnte man über die Steuerzeichen auch zusätzliche Zeichen-Bereiche aktivieren – ähnlich der Anwendung der Shift-Taste an heutigen Rechner-Tastaturen.

In den nächsten Teilen der Serie:
ASCII – die Basis aller Computerzeichensätze 8-Bit-Zeichenkodierungen – das Ringen um einen Standard Unicode: der Weltzeichenkode
Wie schon in den letzten Jahren finden die Leipziger Typotage einmal mehr an ausschließlich einem Tag statt: am Samstag, dem 28. Mai 2011. Erstmals stehen die Leipziger Typotage im Zusammenhang mit einer Sonderausstellung im Museum für Druckkunst Leipzig und nehmen deren Thema »Schrift und Typografie in der zeitgenössischen Kunst« auf.

Die Ausstellung präsentiert vom 8. Mai bis 17. Juli 2011 rund 40 internationale Künstlerinnen und Künstler, die sich in ihrem Werk mit Schrift und Typografie auseinandersetzen. Das Spektrum der gezeigten Arbeiten reicht von Zeichnung, Buchkunst und Papierkunst über Fotografie, Skulptur, Multimedia, Installationen und Graffiti bis zur Kunst im öffentlichen Raum.

Da etliche künstlerische Erscheinungsformen nur bedingt ausstellbar sind, verfolgen die 17. Leipziger Typotage das Thema in Vorträgen weiter. Zu den Referenten zählen Alexander Branczyk (xplicit), Dr. Christian Gutschi (Medienpsychologe und Schriftberater), Lars Harmsen und Julia Kahl (MAGMA Brand Design/Slanted), Will Hill (Anglia Ruskin University), Anja Schulze und Barbara Dechant (Buchstabenmuseum Berlin)

Die Veranstaltung findet wie immer im Museum für Druckkunst Leipzig statt.

Weitere Informationen:
Offizielle Webseite: http://www.typotage.de/
Facebook-Seite: http://www.facebook.com/pages/Leipziger-Typotage/122115011194484
Twitter: http://twitter.com/TypotageLeipzig/
Designstudierende holen Spezialisten für visuelle Kommunikation zum ersten Typografie-Symposium unter dem Motto Umbruch an die Hochschule München. Highlights sind die Vortäge von internationalen Typografie-Größen wie Andreas Uebele, Professor für visuelle Kommunikation an der Fachhochschule Düsseldorf, und Ruedi Baur, der unter anderem in Paris und China gelehrt hat.
Das Symposium bietet neben Vorträgen noch mehr: Designstudierende stellen ihre typografischen Arbeiten aus, Podiumsdiskussionen und Workshops erweitern das Programm.
»20plusX«: Das sind 18 Designstudenten, der betreuende Professor Xuyen Dam und die Fakultät für Design. Das X steht für die hochkarätigen Referenten und die Besucher des Symposiums.
Umbruch ist ein Begriff aus dem Schriftsatz. Er gibt an, an welcher Stelle ein Text von einer Zeile in die nächste übergehen soll. Umbruch steht auch für einen Neuanfang, Richtungswechsel oder eine gestalterische Avantgarde.

Zeit: Freitag, 15. April und Samstag, 16. April 2011, ab 11:45 Uhr
Ort: Hochschule München, Lothstraße 64, 80335 München
Weitere Informationen unter:
Homepage: http://www.20plusx.de Facebook: http://www.facebook.com/pages/20plusX/157559404294372 Twitter: http://twitter.com/20plusx
Obwohl Microsoft einer der beiden Mitentwickler des OpenType-Formates ist, ließ man sich beim Einbau dieser Technologie in die eigenen Office-Programmen über zehn Jahre Zeit. Nun verfügen zumindest die aktuellen Versionen von Word 2010 (PC) und Word 2011 (Mac) über eine Auswahl von OpenType-Funktionen. Da diese jedoch standardmäßig deaktiviert sind und auch in der Bedienung so manche Tücken aufweisen, folgt hier unser ausführlicher Artikel zu OpenType in Microsoft Word.


 
Die OpenType-Funktionen lassen sich über das Menü Format im Fenster Schriftart über den Karteireiter Erweitert erreichen. (siehe vergrößerbare Abbildung rechts) Verfügbar sind folgende Funktionen:
 
Ligaturen Ziffern-Formate Stil-Sets Kontextbedingte Alternativen Ein großes Manko ist die fehlende Kennzeichnung, welche dieser Funktionen im gerade aktiven Font überhaupt verfügbar sind. Hier hilft leider nur das manuelle Ausprobieren. Oder man schaut in einem anderen OpenType-fähigen Programm wie Adobe InDesign oder Illustrator nach. Oft hilft auch ein Blick in das Schriftmuster-PDF der jeweiligen Schrift, um sich über die verfügbaren Funktionen zu informieren.

Ligaturen
Die verschiedenen OpenType-Funktionen zu Ligaturen wurden in ein Auswahlfeld zusammengefasst und können also nicht separat angewählt werden. Das ist ebenso unglücklich, wie die teilweise etwas unbeholfenen Übersetzungen der OpenType-Funktionen. Zur Auswahl bei den Ligaturen stehen:
 

Keine nur Standard: Dahinter versteckt sich das LIGA-Feature, in welchem die Schriftgestalter in der Regel alle Ligaturen einbauen, die generell aktiv sein können. Dies sind insbesondere die meisten f-Ligaturen wie fi, fl, ffi und so weiter. Standard und kontextbezogen: Hier kommt das Feature CLIG hinzu. Diese Ligaturen werden nur aktiv, wenn ihnen bestimmte Buchstaben vorausgehen oder nachfolgen. Historisch und frei: Hier werden die beiden OpenType-Funktionen HLIG und DLIG kombiniert, die eigentlich nichts miteinander zu tun haben und gegebenenfalls vom Anwender einzeln benutzt werden möchten. Historische Ligaturen sind zum Beispiel die Verbünde von langem s und t oder c und h. Hinter »frei« verbergen sich vor allem Schmuckligaturen wie eine st-Verbindung, die rein dekorative Zwecke erfüllt. Alle: Dies aktiviert alle vorgenannten Optionen auf einmal. Eine weitere Einschränkung ist nicht möglich. So kann man zum Beispiel nicht Standard- und Schmuckligaturen auswählen ohne gleichzeitig auch historische Ligaturen zu bekommen. Zahlenabstand
Hier kann zwischen proportional laufenden Ziffern und dicktengleichen Tabellensatzziffern gewählt werden.

Zahlenzeichen
Hinter dem etwas sperrigen Begriff Zahlenzeichen verbirgt sich die Auswahl zwischen Versalziffern und Minuskelziffern. Erstere benennt Word »Ohne Ober-/Unterlängen, letztere kurz »Mediäval«.



Stilsets
 

 
Dies Sets erfüllen verschiedenste Aufgaben innerhalb von OpenType-Fonts. In der Regel werden sie für Alternativformen benutzt. So kann zum Beispiel eine Schrift standardmäßig ein zweistöckiges g enthalten, aber durch Auswahl eines Stil-Sets lassen sich alle diese Buchstaben durch ein dreistöckiges g austauschen. Im Falle der Stilsets ist es besonders störend, keine Anzeige der verfügbares Sets zu haben. Es kann zumindest helfen, sich die erweiterten Typografie-Funktionen direkt ins Menüband zu legen (siehe Abbildung). Dann kann man für den markierten Text zumindest eine direkte Vorschau für alle 20 Stilsets sehen.
Leider lassen sich die Sets auch nicht in Kombination zuweisen, wie dies zum Beispiel in InDesign möglich und sicherlich in vielen Fällen vom Anwender auch gewünscht ist. Hier muss Microsoft noch dringend nacharbeiten. 
 
Kontextvarianten verwenden
Diese Funktion ermöglich über das OpenType-Feature CALT den Austausch von Zeichen je nachdem, mit welchen Zeichen sie im jeweiligen Wort zusammentreffen. Gerade verbundene Schreibschriften können nur über diese Funktion sauber funktionieren.

 
Besonderheiten
Damit die oben genannten Funktionen im Dokument gespeichert werden können, muss das DOCX-Format benutzt werden. Anderenfalls werden die erweiterten typografischen Funktionen entfernt. Aber auch bei einem Austausch im DOCX-Format ist nicht gewährleistet, dass zum Beispiel die Darstellung zwischen Word 2010 und Word 2011 identisch ist. Zumindest fällt hier die Darstellung aber zumindest auf die reguläre Anzeige ohne diese Funktionen zurück und es kommt nicht zu fehlenden Zeichen. Darüber hinaus sind die erweiterten typografischen Funktionen von Apple-Systemschriften ebenfalls nicht mit Windows austauschbar.
Wenn bestimmte OpenType-Fonts gar keine OpenType-Funktionen anzeigen, kann das daran liegen, dass TrueType-basierte Fonts in Word nur OpenType-Funktionen zeigen, wenn sie digital signiert sind. Dies ist aber bei längst nicht allen Fonts der Fall.
http://vg08.met.vgwort.de/na/147f557ddc134cc39d2fc1dc26a6be68" width="1" height="1" alt="">
Anfang des 19. Jahrhunderts schuf Justus Erich Walbaum in Weimar mit der Walbaum Antiqua eine der beliebtesten deutschen klassizistischen Schriften. Nun stellt ihr der Prager Schriftgestalter František Štorm mit der Walbaum Grotesk eine serifenlose Schwester an die Seite.



Die Walbaum Grotesk wurde als perfekte Ergänzung zur Walbaum-Antiqua-Interpretation von Štorm entwickelt und lässt sich somit problemlos mit dieser im Layout mischen. Die Walbaum Grotesk ist aber keineswegs eine Walbaum Antiqua mit abgeschnittenen Serifen. Die neue serifenlose Walbaum ist eine charakterstarke Type, die sich nur schwerlich in eine Kategorie zwängen lässt. Der Grundcharakter der Buchstaben ist statisch/klassizistisch, aber einzelne – teils etwas skurrile – Details wirken dagegen humanistischen und treten deutlich aus dem Schriftbild hervor.



Die Schriftfamilie ist in 6 Strichstärken (jeweils mit Kursiven) verfügbar und verfügt über einen umfangreichen Zeichenausbau.
http://new.myfonts.com/fonts/storm/walbaum-grotesk-pro/



Schriftnutzer sehen sich nicht selten urplötzlich vor schwer erklärbare Probleme gestellt: Schriftzeichen erscheinen durcheinander in einem Dokument; das Schriftmenü spielt verrückt oder zeigt bestimmte Fonts nicht an; Dokumente lassen sich nicht Drucken oder dabei werden Schriften ungewollt ersetzt etc.
Viele dieser Probleme lassen sich lösen, wenn man immer mal wieder den Zwischenspeicher (»Font Cache«) löscht und dadurch neu aufbauen lässt. In diesen Dateien werden Informationen über die installierten Schriften zwischengespeichert, damit nicht bei jedem Zugriff oder Programmstart alle Fonts einzeln geladen und verarbeitet werden müssen. Die Font-Cache-Dateien können bedenkenlos gelöscht werden. Dies gestaltet sich jedoch nicht immer einfach, da sowohl die Betriebssysteme, als auch die einzelnen Anwendungsprogramme eigene Dateien anlegen. Dieser Artikel bietet dazu eine Übersicht.

Windows
Unter Windows befindet sich der Font Cache in der Regel an dieser Position: C:\Windows\System32\FNTCACHE.DAT
Diese Datei kann gelöscht werden und nach einem Neustart wird der Font Cache neu erstellt.

Adobe-Font-Caches (Creative Suite, Acrobat etc.)
 

 
Das System muss nach Dateien mit folgendem Schema durchsucht werden: adobefnt*.lst
Das Sternchen steht dabei für einen beliebigen numerischen Wert. Achtung: Die ähnlich lautenden Dateien AdobeFnt.db und FntNames.db dürfen keinesfalls gelöscht werden.

Mac OS X
 
Unter Mac OS X ist der Font Cache auf verschiedene Dateien verteilt und befindet sich in den unterschiedlichen Versionen (10.4/10.5/10.6) auch an unterschiedlichen Positionen. Die einfachste Möglichkeit, den Font Cache von Mac OS X zu löschen, ist das Starten im abgesicherten Modus:
Rechner starten Auf den Startton warten Umschalt-Taste drücken Taste loslassen, wenn das Apple-Logo erscheint Rechner hochfahren lassen und danach erneut starten Office für Mac
 

 
Im Order \Users\User_name\Library\Preferences\Microsoft
eine der folgenden Dateien löschen:
Office Font Cache (10) Office Font Cache (11) Office 2008/Office Font Cache (12) Office 2011/Office Font Cache Adobe-Font-Caches (Creative Suite, Acrobat etc.)
 

 
Wie bei Windows gilt auch hier: Das System muss nach Dateien mit folgendem Schema durchsucht werden: adobefnt*.lst
Das Sternchen steht dabei für einen beliebigen numerischen Wert. Achtung: Die ähnlich lautenden Dateien AdobeFnt.db und FntNames.db dürfen keinesfalls gelöscht werden.

Quark PDF Engine
 

 
Der Zwischenspeicher der PDF-Bibliothek von Quark kann sehr leicht extrem groß werden und damit Stabilitätsprobleme verursachen. Man sollte daher regelmäßig folgende Dateien löschen:
ab QuarkXPress 7.1: /Users//Library/Preferences/Quark/QuarkXPress */jaws/ bis QuarkXPress 7: /Applications//jaws/ttfont/
Apple iWork (Pages, Numbers, Keynote)
 

 
Folgende Datei kann bei Problemen mit iWork-Anwendungen gelöscht werden:
~/Library/Caches/com.apple.iwork.fonts
Drittanbieter-Tools zum Löschen der Font-Caches
Professionelle Fontmanager wie Extensis Suitcase Fusion 3 oder FontExplorer X Pro bieten von Hause aus die Möglichkeit, verschiedene Font Caches zu löschen. In der Regel zählen dazu zumindest der System-Font-Cache, sowie die jeweiligen Zwischenspeicherdateien von Adobe-, Microsoft- und Quark-Anwendungen.


 
Darüber hinaus existieren einige Programme, die speziell auf diese Aufgabe zugeschnitten sind und sicherlich einen Blick wert sind, wenn man die Font-Caches verschiedener Anwendungen regelmäßig bereinigen möchte:
Font Finagler (Unser Tipp!) http://homepage.mac.com/mdouma46/fontfinagler/ (Shareware, 10 Dollar) Smasher http://www.insidersoftware.com/SM.php (49,95 Dollar) FontDoctor http://www.fontgear.net/fontdoctor.html (69,99 Dollar) Onyx http://www.titanium.free.fr/download.php (kostenlos) http://vg08.met.vgwort.de/na/e2fe52dc97304a80810148ff24420623" width="1" height="1" alt="">
Die Region um Birmingham im Herzen von England kann auf eine reiche typografische Geschichte zurückblicken. Namen wie William Caslon und John Baskerville sind mit dieser Region eng verknüpft. Das Birmingham Institute of Art & Design hat zur Wahrung dieses Erbes und zu dessen weiterer Erforschung den Typographic Hub gegründet.


 
Verschiedenste spannende Forschungsprojekte aus den Bereichen Schriftdesign, Typografie und Drucktechnik werden hier bearbeitet, ein jährliches Symposium durchgeführt und eine typografische Fachbibliothek aufgebaut. Die zugehörige Webseite ist schon jetzt reichlich gefüllt. Es finden sich darauf die bekanntester Vertreter der typografischen Geschichte aus der Region sowie ein ständig wachsende Zahl von Fachartikeln.
http://www.typographichub.org
Die Rosetta Type Foundry ist ein neuer Schriftanbieter, der sich ganz der Entwicklung von Fonts verschrieben hat, die verschiedene Schriftsysteme überspannen. Unter rosettatype.com entsteht dazu ein Webshop mit hochwertigen Schriften. Momentan umfasst die Unterstützung Lateinisch für europäische Sprachen, Arabisch, Griechisch und Kyrillisch für slawische und asiatische Sprachen. Indische Schriftsysteme sollen in Kürze folgen.

Hinter dem Projekt stehen der tschechische Typedesigner David Březina, der argentinische Grafikdesigner José Scaglione und die ursprünglich aus Prag stammende Schriftgestalterin Veronika Burian. Alle drei besitzen einen Master of Arts im Bereich Schriftgestaltung von der englischen Universität Reading und sind bereits für ihre hochwertigen Schriften bekannt, die sie bislang unter dem Label Type Together veröffentlich haben. Mit der Rosetta Type Foundry wird diese Arbeit nun mit besonderem Fokus auf multilingualem Schriftdesign fortgeführt.


Beliebte Typografie-Einsteiger-Bücher gibt es vom Verlag Hermann Schmidt Mainz.
×
×
  • Neu erstellen...

🍪 Hinweis:

Wir benutzen funktionale Cookies.