Jump to content
Typografie.info
Krimhilde – Fraktur trifft geometrische Grotesk
Krimhilde – Fraktur trifft geometrische Grotesk
Krimhilde – Fraktur trifft geometrische Grotesk
Krimhilde – Fraktur trifft geometrische Grotesk
Melde dich an, um diesem Inhalt zu folgen  
Gast Peter Glaab

1337: Lesbarkeit von verfremdeten Worten

Empfohlene Beiträge

Gast Peter Glaab

Ich suche nach Erklärungen, warum man einen Text in Leetspeak noch relativ flüssig lesen kann, auch wenn er auf den ersten Blick kryptisch wirkt.

D1353 M1TT31LUNG Z31GT D1R, ZU W3LCH3N GRO554RT1G3N L315TUNG3N UN53R G3H1RN F43H1G 15T! 4M 4NF4NG W4R 35 51CH3R NOCH 5CHW3R, D45 ZU L353N, 483R M1TTL3W31L3 K4NN5T DU D45 W4HR5CH31NL1ICH 5CHON G4NZ GUT L353N, OHN3 D455 35 D1CH W1RKL1CH 4N5TR3NGT. D45 L315T3T D31N G3H1RN M1T 531N3R 3NORM3N L3RNF43HIGKEIT. 8331NDRUCK3ND, OD3R?

Eine Reihe von Buchstaben wurden durch Ziffern ersetzt, die mehr oder weniger dem Buchstabenschema ähneln. Ich vermute, dass man jeden Buchstaben eines Worts einzeln erfasst und dann blitzschnell kombiniert, bis ein logisch erscheinender Begriff herauskommt.

Diesen Beitrag teilen


Link zum Beitrag
Karl432
Ich suche nach Erklärungen, warum man einen Text in Leetspeak noch relativ flüssig lesen kann, auch wenn er auf den ersten Blick kryptisch wirkt. …

Sehr aufschlussreich fand ich für solche und ähnliche Aspekte des Lesens das Buch:

Stanislas Dehaene: Lesen. München 2010, ISBN 978-3-8135-0383-8 (Original: Les Neurones de la lecture; Paris 2007)

hier speziell S. 62 ff. – Demgemäß wird der Buchstabe vom Gehirn nicht primär als einzelnes Objekt, sondern tatsächlich primär als Teil des Wortzusammenhanges wahrgenommen. In seinem Beispiel verwendet er eine Schrift, in der zum einen "c" und "e", zum anderen "n" und "u" praktisch gleich aussehen.

Diesen Beitrag teilen


Link zum Beitrag
Ralf Herrmann
Ich vermute, dass man jeden Buchstaben eines Worts einzeln erfasst und dann blitzschnell kombiniert, bis ein logisch erscheinender Begriff herauskommt.

Logisch. So funktioniert das Lesen nun mal. (Wenn nicht in Typokreisen immer das Wortbildmodell als Grundlage des Lesens gestreut werden würde.)

Der Text ist ja im Prinzip nur eine Abwandlung des Can-You-Read-Me-Prinzips. In den benutzen Ziffern sind hier Bruchstücke der gemeinten Buchstaben enthalten und das reicht aus, um den Buchstaben selbst – zumindest in Abgleich mit den anderen Buchstaben des Wortes – zu erkennen.

Diesen Beitrag teilen


Link zum Beitrag
Phoibos
(Wenn nicht in Typokreisen immer das Wortbildmodell als Grundlage des Lesens gestreut werden würde.)

Was spricht gegen das Wortbild? Ich fand das immer recht überzeugend im eigenen Erlebnis. Und hast Du mehr Quellen zu Wortbildern? Ich frage, weil ich diesen Begriff aus der Philologie kenne (Bereich Metrik).

Diesen Beitrag teilen


Link zum Beitrag
bertel
Logisch. So funktioniert das Lesen nun mal. (Wenn nicht in Typokreisen immer das Wortbildmodell als Grundlage des Lesens gestreut werden würde.) …

Es lassen sich für beide Theorien belastbare Be- und Nachweise finden. So logisch ist die eine Theorie also nicht.

Diesen Beitrag teilen


Link zum Beitrag
Ralf Herrmann

Ich will das gar nicht wieder von vorne aufrollen. Mich stört halt vor allem die Übersteigerung der Wortbildidee als Grundlage des Lesen. Da ist nix dran, wie ja gerade diese Effekte mit Teilersetzungen (GRO554RT1G) oder Verdrehungen (GORSSRAITG) »großartig« untermauern. Da ist überhaupt kein gelerntes »Wortbild«, das man Lesen könnte. Es sind einzelne Merkmale (Buchstaben) eines Wortes, die aus einzelnen Merkmalen (Buchstabenteilen) zu etwas Sinnvollem zusammengebastelt werden. Da alles mehr oder weniger parallel abläuft – und das muss es in dem Fall auch – reichen in der Summe aller Prozesse schon Bruchstücke der einzelnen Merkmale, um auf die gemeinte Bedeutung zu kommen.

Wortbildmodelle können das nicht erklären – noch nicht mal, warum man VERSALSATZ ÜBERHAUPT RELATIV PROBLEMLOS UND MIT NUR GERINGEM GESCHWINDIGKEITSVERLUST LESEN KANN.

Diesen Beitrag teilen


Link zum Beitrag
pürsti

Denke daß unser Hirn beides parat hat. Kurze, oft gesehene Buchstabenkombinationen werden wohl eher wie ein eigener Buchstabe ingesamt erfaßt, dort wo das nicht so rasch funktioniert pfriemelt sich es halt aus den einzelnen Buchstaben (oder Buchstabenkombinationen) zusammen. Das Gehirn, es mag wahrscheinlich nicht so schwarzweiß.

Diesen Beitrag teilen


Link zum Beitrag
Ralf Herrmann
Kurze, oft gesehene Buchstabenkombinationen werden wohl eher wie ein eigener Buchstabe insgesamt erfaßt…

Das funktioniert schon statistisch nicht: der/die/das – Haus/Hans/Homs – ...

Wo sollen da die charakteristischen Wortbilder sein? Ohne Einzelbuchstaben ist da nix zu »lesen«.

Diesen Beitrag teilen


Link zum Beitrag
bertel
Das funktioniert schon statistisch nicht: der/die/das – Haus/Hans/Homs – ...

Wo sollen da die charakteristischen Wortbilder sein? Ohne Einzelbuchstaben ist da nix zu »lesen«.

Warum kann man dann horizontal abgeschnittenen Text lesen, wo doch die Einzelbuchstaben gar nicht identifizierbar sind? Wie pürsti schon sagte, wird die Wahrheit irgendwo in der Mitte liegen. Das Hirn "liest" Wörter auch aus dem Kontext, ohne Buchstaben oder Wortbilder.

Diesen Beitrag teilen


Link zum Beitrag
Ralf Herrmann
Warum kann man dann horizontal abgeschnittenen Text lesen, wo doch die Einzelbuchstaben gar nicht identifizierbar sind?

Sie sind nicht zweifelsfrei identifizierbar, aber es sind eben ausreichende Merkmale vorhanden, um zumindest aus dem Kontext auf die richtigen Worte zu kommen. Ein n und ein p sind vielleicht nicht zweifelsfrei unterscheidbar, wenn der untere Teil fehlt, aber mal liest eben zumindest aus dem Merkmalen, dass es ein n oder p ist und entscheidet dann aus dem Kontext welches der beiden.

Wortbildmodelle können diese Effekt nämlich erstrecht nicht erklären.

Diesen Beitrag teilen


Link zum Beitrag
bertel
Sie sind nicht zweifelsfrei identifizierbar, aber es sind eben ausreichende Merkmale vorhanden, um zumindest aus dem Kontext auf die richtigen Worte zu kommen. Auch dieses Beispiel spricht eindeutig gegen Wortbildmodelle, da bei den abgedeckten Texten von diesen erstrecht nichts übrig bleibt.

Nein, das Beispiel spricht vielmehr gegen das Einzelbuchstabenmodell, da bei abgedeckten Texten viel mehr Wortbild als Einzelbuchstabe übrig bleibt.

Diesen Beitrag teilen


Link zum Beitrag
CRudolph

Die Mustererkennung läßt sich nur sehr schwer rationalisieren. Das Gehirn ist extrem gut zur Erkennung von Mustern geeignet, auch wenn sich nur schwer rational erfassen läßt warum man zwischen ihnen unterscheiden kann. Eines meiner Lieblingsbeispiele: In der Mehrheit aller Fälle kann man ohne zu Zögern zwischen einem Hund und einer Katze unterscheiden. Wenn man dies rational begründen soll wird es oftmals ganz schwierig. Man weiß es eben einfach. Oder, als gutes »Bewußtseinstraining«: wenn man seine Armbanduhr, auf die man täglich mehrmals schaut, verlegt hat und beschreiben soll wie sie aussieht kommt man oftmals über eine basale Beschreibung nicht hinaus. Liegt sie in einem Kasten voller Armbanduhren kann man sie oftmals ohne zu Zögern identifizieren. Die Mustererkennung läßt eine schnelle und eindeutige Identifizierung zu auch wenn man sich rational über Details nicht im Klaren ist.

Sich jetzt darüber zu streiten ob es um Wortbilder oder Einzelbuchstaben geht ist sich nicht verkehrt, greift aber viel zu kurz wenn es um Mustererkennung geht. Daher muß man darum auch gar nicht so einen Huha machen. Man rät da doch tendenziell eher falsch. Irgendwann (läßt sich mit Photoshop schnell überprüfen) haben wir an der Uni mal diskutiert woran man sich in einem Gesicht orientiert. Wenn man in einem Portrait die Augen und den Mund ausschneidet, das Gesicht um 180° dreht und die Augen in korrekter Position wieder einfügt hat man kaum Probleme die gezeigte Person zu identifizieren. Läßt man hingegen das Gesicht wie es ist und dreht nur die Augen und den Mund um 180° dann kommt eine ganz schaurige Angelegenheit dabei heraus. Hier wäre es jetzt natürlich spannend nachzuhaken: liegt das an der Form oder liegt das an anderen Merkmalen?

Und schließlich: man darf auch nicht unterschätzen was das Gehirn alles einfach ausblendet. Diese wunderschöne Demonstration von Richard Wisemann hat es mir immer wieder angetan.

Beste Grüße,

Christian

Diesen Beitrag teilen


Link zum Beitrag
Ralf Herrmann
Nein, das Beispiel spricht vielmehr gegen das Einzelbuchstabenmodell, da bei abgedeckten Texten viel mehr Wortbild als Einzelbuchstabe übrig bleibt.

Nein, mit Sicherheit nicht.

Das Lesen der abgedeckten Texte funktioniert exakt genauso wie normales Lesen – es stehen nur weniger Informationen zur Verfügung. Da die Verteilung von Ober- und Unterlängen schon statistisch keine signifikante Zahl von durch sich selbst lesbaren Wortbildern erzeugt, wird es auch nicht besser, wenn man die Hälfte abschneidet. Wie soll also »mehr Wortbild« übrig bleiben.

Man kann ein unten abgedecktes Haus/Hans/Homs lesen, weil an der x-Höhe die meisten Detailinformationen der Einzelbuchstaben stecken. a und o sind da klar unterscheidbar, u und n ebenso. Daher kann man diese Wörter lesen. Das Wortbild – also die Verteilung von Ober- und Unterlängen ist praktisch identisch und daher nicht durch sich selbst lesbar.

Diesen Beitrag teilen


Link zum Beitrag
pürsti
Das funktioniert schon statistisch nicht: der/die/das – Haus/Hans/Homs – ...

Wo sollen da die charakteristischen Wortbilder sein? Ohne Einzelbuchstaben ist da nix zu »lesen«.

Unterscheiden sich für mich schon genügend um meinem Hirn zutrauenzu können, sie als Gesamtbild unterscheiden und also als solches Wahrnehmen zu können. Nehm mal an Du meinst jetzt mit „Wortbild“ vor allem (oder ausschließlich?) den Umriß eines Wortes also bestimmt vor allem durch die Strukturierung auch mit Ober- und Untelängen. Ich denk daß unterschiedliche Buschstabenkombinationen so lang überschaubar und genügend trainiert sich sich zu einem Gesamtbild schon einprägen so wie sich ein Gesicht -oft genug gesehen- auch einprägt auch ohne extreme Hakennase und ohne daß ich die einzelnen Elemente erst analysieren müßt.

Diesen Beitrag teilen


Link zum Beitrag
bertel
Nein, mit Sicherheit nicht.

Das Lesen der abgedeckten Texte funktioniert exakt genauso wie normales Lesen – es stehen nur weniger Informationen zur Verfügung. Da die Verteilung von Ober- und Unterlängen schon statistisch keine signifikante Zahl von durch sich selbst lesbaren Wortbildern erzeugt, wird es auch nicht besser, wenn man die Hälfte abschneidet. Wie soll also »mehr Wortbild« übrig bleiben.

Man kann ein unten abgedecktes Haus/Hans/Homs lesen, weil an der x-Höhe die meisten Detailinformationen der Einzelbuchstaben stecken. a und o sind da klar unterscheidbar, u und n ebenso. Daher kann man diese Wörter lesen. Das Wortbild – also die Verteilung von Ober- und Unterlängen ist praktisch identisch und daher nicht durch sich selbst lesbar.

Du betrachtest einzelne Wörter oder Buchstaben, ich betrachte Sätze und ganze Texte. Im Einzelfall wird das Hirn mehr Wörter lesen müssen oder gar nicht lesen, sondern aus dem Kontext ergänzen, oder Einzelbuchstaben zu einem Wort zusammensetzen müssen oder oder oder.

Diesen Beitrag teilen


Link zum Beitrag
Ralf Herrmann
… zu einem Gesamtbild schon einprägen so wie sich ein Gesicht -oft genug gesehen- auch einprägt …

Und das wurde zum Glück schon ausführlich wissenschaftlich untersucht. Ergebnis auch hier: Es wird kein »Bild« wiedererkannt, sondern Einzelmerkmale in ihrer Abweichung von Archetypen. (Daher sehen auch Asiaten für einen Europäer alle »gleich« aus, obwohl sie die gleiche Varianz in der konkreten Ausprägung haben.)

Gesichter lassen sich eben gerade nicht als Bild erkennen, weil das ja immer anders ist, je nach Sichtwinkel, Grimasse usw. Was gleich ist, sind konkrete Merkmale.

Und bei Buchstaben ist es ganz genauso. Jede Schriftart/Handschrift erzeugt andere »Buchstaben-/Wortbilder«, jede andere Laufweite ändert das Wortbild dramatisch usw. Was bleibt sind die Einzelmerkmale. Das ist das einzige »Grundprinzip«. Dass Ober- und Unterlegen lesefördernd sind, bestätige ich ausdrücklich (und verorte das unter meinem Begriff Lesefreundlichkeit), aber sie sind im Sinne der Wortbilder niemals ein essentielles Grundprinzip des Lesens.

Diesen Beitrag teilen


Link zum Beitrag
Mueck
warum man VERSALSATZ ÜBERHAUPT RELATIV PROBLEMLOS

Na weil die Buchstabenformen bekannt sind ...

UND MIT NUR GERINGEM GESCHWINDIGKEITSVERLUST LESEN KANN.

Bissele ausgebremst beim Lesen fühlte ich mich bei dem Satz ja schon ... Die These wage ich zumind. in Fließtextkontexten zu bezweifeln ;-)

Diesen Beitrag teilen


Link zum Beitrag
Ralf Herrmann
Du betrachtest einzelne Wörter oder Buchstaben, ich betrachte Sätze und ganze Texte.

Ich mache da bewusst keine Unterscheidung. Es ist beides ein und dasselbe Lesen.

Beim zügigen Fließtextlesen wird freilich jede Menge weniger genau oder schlicht gar nicht exakt visuell verarbeitet. Aber es passiert genau das gleiche wie beim Lesen abgedeckter Texte, der obigen Ziffern-statt-Buchstaben-Spielerei oder beim Entziffern des Rezepts eines Arztes: der Leser macht das Beste aus den wenigen zur Verfügung stehenden Informationen.

Wenn beim vorausschauenden Fließtextlesen im noch unscharfen Bereich ein kurzes Wort auftaucht und ein Artikel jetzt inhaltlich gut passen würde und scheinbar auch noch der erste Buchstabe eine Oberlänge hat, dann reicht diese Information eben aus – das Wort wird übersprungen. Es wird wahrscheinlich ein der, die oder das sein und folgende Wort sagt und dann ja welches davon richtig ist. Sollte man sich geirrt haben, und die folgenden Wörter zeigen, dass der Artikel doch kein solcher war, kommt es zu einem Rücksprüng. Alles ganz normal.

Ein explizites Wortbildmodell ist für die Erklärung dessen aber vollkommen unnötig. Die drei Artikel haben ja noch nicht mal unterschiedliche Wortbilder. Würden solche unterschiedlichen Wortbilder das Lesen verbessern, müssten längere Wörter mit mehr markanten Ober- und Unterlängen schneller gelesen werden also kürzere. Ist natürlich nicht so ...

Es bleibt ein schwammiger Mythos, der nichts erklärt und vor allem auch von keinem Vertreter dieser Theorie überhaupt einmal fundiert erläutert wird. Es wird einfach angenommen, es gäbe charakteristische Wortbilder und sie helfen beim Lesen. Aber was sind die Parameter dieser Wortbilder? Ist es eine detaillierte Bildschablone? Wie sieht es dann mit Sperrungen aus, die das Wortbild durchkreuzen? Wie kann eine Bickham Script und eine Garamond das gleiche Wortbild (also die gleiche Bildschablone) bedienen, obwohl sie doch so unterschiedlich sind? Und wenn es also gar keine Bildschablone, sondern nur sehr eine abstrakte Anordnungen von Buchstaben mit vorhandenen oder nicht vorhandenen Ober- und Unterlängen sind, sind es dann eben nicht eher »Anordnungen von Buchstaben(!) mit vorhandenen oder nicht vorhandenen Ober- und Unterlängen«? Wozu braucht es da Wortbilder? Mich kann das alles nicht überzeugen.

Und die auf diesem Gebiet forschenden Wissenschaftler wundern sich auch nur über die Typografen und ihre seltsame Wortbild-Idee …

Diesen Beitrag teilen


Link zum Beitrag

Erstelle ein Benutzerkonto oder melde dich an, um zu kommentieren

Du musst ein Benutzerkonto haben, um einen Kommentar verfassen zu können

Benutzerkonto erstellen

Neues Benutzerkonto für unsere Community erstellen. Es ist einfach!

Neues Benutzerkonto erstellen

Einloggen

Du hast bereits ein Benutzerkonto? Melde dich hier an.

Jetzt anmelden
Melde dich an, um diesem Inhalt zu folgen  
Proxima Nova – ein MyFonts-Bestseller
Proxima Nova – ein MyFonts-Bestseller
Proxima Nova – ein MyFonts-Bestseller
Proxima Nova – ein MyFonts-Bestseller
×

Hinweis

Wie die meisten Websites, legt auch Typografie.info Cookies im Browser ab, um die Bedienung der Seite zu verbessern. Sie können die Cookie-Einstellungen des Browsers anpassen. Anderenfalls akzeptieren Sie bitte die Speicherung von Cookies. Weitere Details in der Datenschutzerklärung