Jump to content
Registriere dich bei Typografie.info und schalte sofort alle Mitgliederfunktionen (einschließlich des Download-Portals) frei …

Neue Rechtschreibung?

Empfohlene Beiträge

Ralf, wenn Du die UNZ1 sachlich kritisieren möchtest, freue ich mich darüber. Für Verbesserungsvorschläge sind die Verantwortlichen offen. Zu sachlicher Kritik gehört jedoch nicht, auf fragliche Aussagen eines Unbeteiligten zu verweisen, der offensichtlich nicht viel von dem versteht, worüber er schreibt.

 

Dass sich der kleine Kreis von Interessierten auf PUA-Belegungen einigt, dagegen hab ich freilich nichts einzuwenden. Dazu ist der Bereich ja da. 

Link zu diesem Kommentar
austerlitz

Der BfdS verfolgt keineswegs das Ziel, das Unicode-Consortium zur Kodierung von Verbünden zu bewegen. Bei der UNZ1 („Unicode-gerechte Norm für Zusatzzeichen“) handelt es sich um eine Empfehlung für im Privatbereich codierte Verbünde und andere Zusatzzeichen.

Wenn es eine nur Empfehlung ist, warum haben sie es dann wohl eine Norm genannt, und nicht eine Empfehlung? Das dünkt mich eine eher irreführende Wortwahl.

Link zu diesem Kommentar
Mueck

das trüffelschwein find ich gut und funktioniert auch.

gefällt mir, ...

Mir auch.

Klare Unterſcheidung zwiſchen ſ und f, nicht nur beim Querbalken, ſondern zuſätzlich auch durch die Unterlänge beim ſ.

Und insgeſamt ſchöner Schriftzug

Link zu diesem Kommentar
  • 9 Monate später...
catfonts

Wenn es eine nur Empfehlung ist, warum haben sie es dann wohl eine Norm genannt, und nicht eine Empfehlung? Das dünkt mich eine eher irreführende Wortwahl.

Erst einmal sind auch DIN-Normen "nur" eine Empfehlung, anders als bei den TGL-Standards der DDR brauicht sich daran niemand halten, sondern nur die, welche diese Empfehlungen eben als Sinnvoll erachten.

 

Und daneben gibts auch diverse Werks-Normen, so z.B. die VAG-Normen innerhalb des VW-Konzerns, an die sich dann die Zulieferer halten sollen, und an die sich dann auch viele Ersatzteil- und Betriebsstoff-Lieferanten halten, die nur auf dem freien Markt anbieten.

 

Der Begriff "Norm" ist nicht geschützt, und kann von jedem, der eine der Vereinheitlichung innerhalb eines Interessenkreises dienende Empfehlung erstellt auch benutzen.

 

Sinnvoll ist dies derzeit, weil einfach die Mehrzahl der Nutzer entsprechender Schriften eben nicht im Kreis der Mediengestalter, sondern es sich um "Normalverbraucher" handelt, die in der Mehrzahl der Fälle Programme ohne OpenType-Unterstützung verwenden, Sachen wie alte Word-Versionen, einfachr Bildbearbeitung, wie Paint.net, Sonder-Programme, wie einen "Visitenkarten-Profi" oder eine "CD-Aufkleber -Assistent" oder auch verschiedene Fotobuch-Software. So lange eine Unterstützung von OpenType nicht einmal in Software mit Professionellem Anspruch, wie z.B. CorelDRAW nicht umgesetzt ist, ist eine gewisse Normierung einer praktikablen Notlösung, die es aber leicht ermöglicht, die Schriften auch für OpenType zu ertüchtigen, die beste, der schlechten Lösungen.

 

... und der Ersteller des Schildes von Ralfs letzten Post hätte sich sicherlich auch besser einer solchen Schrift und einem der dazu angebotenen Hilfsprogramme bedient. "waſ" (aua!) - ich schätze mal, das ist Folien-Schnitt, und diese arbeiten oft mit CorelDRAW - und da geht OpenType eben nicht.

Link zu diesem Kommentar

Der Begriff "Norm" ist nicht geschützt, und kann von jedem, der eine der Vereinheitlichung innerhalb eines Interessenkreises dienende Empfehlung erstellt auch benutzen.

 

Da bin ich anderer Meinung. Allgemeinsprachlich hat der Begriff natürlich verschiedenste Bedeutungen (vgl. »gesellschaftliche Normen«), aber »technische Normen« versteht man als …

ein Schriftstück, auf das sich interessierte Kreise durch Mitarbeit in einem Normenausschuss geeinigt haben … (Wiktionary)

Und zum Begriff Normungsausschuss und Normung selbst:

Normung bezeichnet die Formulierung, Herausgabe und Anwendung von Regeln, Leitlinien oder Merkmalen durch eine anerkannte Organisation und deren Normengremien. Sie sollen auf den gesicherten Ergebnissen von Wissenschaft, Technik und Erfahrung basieren und auf die Förderung optimaler Vorteile für die Gesellschaft abzielen. Die Festlegungen werden mit Konsens erstellt und von einer anerkannten Institution angenommen. (Wikipedia)

 

Man beachte hier das »anerkannte Organisation/Institution«. Der Begriff Norm wäre im technischen Sinne wertlos, wenn jeder einfach so Normen herausgeben könnte, indem er diese Bezeichnung auf ein Blatt Papier schreibt. Der Vorteil ist gerade, dass ihre Erstellung nicht einfach nur persönliche Interessen widerspiegelt, sondern einem standardisierten Prozess folgt, der verschiedenste Interessen abwägt, im Abgleich mit existierenden Normen durchgeführt wird und entsprechende Einspruchsfristen für jeden Bürger oder jede Institution vorsieht. 

Würde jeder einfach so Normen herausgeben können, würden sich fortlaufend Normen komplett widersprechen. Und genau das ist nicht im »gesellschaftlichen Interesse«. Ich war an einer Erstellung einer DIN-Norm beteiligt und weiß wie wichtig das DIN diese Dinge nimmt – und zu recht!

 

PUA-Zeichen »normieren« zu wollen ist ja schon per Definition Blödsinn, weil dieser Bereich explizit für eine freie Verwendung vorgesehen ist.

Ich könnte heute noch die Typografie.info-PUA-Norm verabschieden und dabei für die von UNZ benutzten PUA-Codes andere Zeichen vorschlagen. Schon hätten wir den Salat. Welches soll dann die richtige und maßgebliche Norm für diese Zeichen sein? 

Bei einem Normungsinstitut auf Landesebene oder sogar auf globaler Ebene (ISO) wäre es jedoch kaum möglich, dass die entsprechende BfdS-Belegung und die Typografie.info-Belegung gleichzeitig als einzelne Normen nebeneinander durchkommen würden. Und das ist auch gut so. 

 

Die UNZ-Belegung ist reines Privatvergnügen. Sie ist eine Kodierungs-Empfehlung, die keinen Normungsprozess an einem anerkannten Normungsinstitut durchlaufen hat. Sie ist eine »Empfehlung« und genau so hätte man sie nennen sollen. Das macht sie ja auch nicht irgendwie minderwertiger.

Wenn UNZ irgendwann mal für 95% aller gebrochenen Schriften eingesetzt wird, könnte man das dann einen De-Facto-Standard nennen – eine Norm ist es aber nicht und wird es auch nie werden. 

Link zu diesem Kommentar
Mueck

Ich könnte heute noch die Typografie.info-PUA-Norm verabschieden und dabei für die von UNZ benutzten PUA-Codes andere Zeichen vorschlagen. Schon hätten wir den Salat. Welches soll dann die richtige und maßgebliche Norm für diese Zeichen sein?

Apropos ...

Sind UNZ und MUFI eigentlich halbwegs kompatibel zueinander?

Link zu diesem Kommentar
catfonts

Apropos ...

Sind UNZ und MUFI eigentlich halbwegs kompatibel zueinander?

Ja, UNZ ist quasi eine MUFI-Teilmenge.

 

 

Da bin ich anderer Meinung. Allgemeinsprachlich hat der Begriff natürlich verschiedenste Bedeutungen (vgl. »gesellschaftliche Normen«), aber »technische Normen« versteht man als …

Und zum Begriff Normungsausschuss und Normung selbst:

 

Man beachte hier das »anerkannte Organisation/Institution«. Der Begriff Norm wäre im technischen Sinne wertlos, wenn jeder einfach so Normen herausgeben könnte, indem er diese Bezeichnung auf ein Blatt Papier schreibt. Der Vorteil ist gerade, dass ihre Erstellung nicht einfach nur persönliche Interessen widerspiegelt, sondern einem standardisierten Prozess folgt, der verschiedenste Interessen abwägt, im Abgleich mit existierenden Normen durchgeführt wird und entsprechende Einspruchsfristen für jeden Bürger oder jede Institution vorsieht. 

Würde jeder einfach so Normen herausgeben können, würden sich fortlaufend Normen komplett widersprechen. Und genau das ist nicht im »gesellschaftlichen Interesse«. Ich war an einer Erstellung einer DIN-Norm beteiligt und weiß wie wichtig das DIN diese Dinge nimmt – und zu recht!

Das ist so schon richtig, nur ist eben das "Deutsche Institut für Normung" eben auch keine staatliche Behörde, sondern letztlich auch "nur" ein Verein, der ursprünglich eben auch nur als Interessenverband einer relativ kleinen Zahl deutscher Industriebetriebe gegründet wurde, also eben auch nur eine Gruppe für einen bestimmten Zweck. Ein Verein...

 

PUA-Zeichen »normieren« zu wollen ist ja schon per Definition Blödsinn, weil dieser Bereich explizit für eine freie Verwendung vorgesehen ist.

Ich könnte heute noch die Typografie.info-PUA-Norm verabschieden und dabei für die von UNZ benutzten PUA-Codes andere Zeichen vorschlagen. Schon hätten wir den Salat. Welches soll dann die richtige und maßgebliche Norm für diese Zeichen sein? 

Bei einem Normungsinstitut auf Landesebene oder sogar auf globaler Ebene (ISO) wäre es jedoch kaum möglich, dass die entsprechende BfdS-Belegung und die Typografie.info-Belegung gleichzeitig als einzelne Normen nebeneinander durchkommen würden. Und das ist auch gut so.

Das sehe ich wiederum anders. Richtig ist, dass PUA ein Freiraum ist, eben gedacht für Zeichen, die keine Unicode-Codierung haben. Letztlich spricht aber nichts dagegen, diesen Freiraum auch innerhalb eines begrenzen Nutzerbereichs auch normiert gemeinsam einheitlich zu benutzen. Dies entspricht doch auch dem täglichen Leben: Nicht alles ist in DIN-Normen geregelt, auch hier gibt es freiräume, die dann von einzelnen Firmen, oder von industriellen Interessenverbänden auch mit ihren Normen ausgefüllt wird, und aus vielen dieser Industrie-Normen wird nie eine DIN oder ISO-Norm, trotzdem wird die Norm. und damit auch der Herausgeber dieser Norm dann anerkannt. So gibt es bis heute keine Norm für z.B. den Chinch-Stecker, der sich heute an fast jedem AV-Gerät befindet.

Die UNZ-Belegung ist reines Privatvergnügen. Sie ist eine Kodierungs-Empfehlung, die keine weltweite Bedeutung haben,

Trotzdem ist es kein Widerspruch, wenn darin dann für bestimmte, abgegrenzte Anwendungen dann auch innerhalb des jeweiligen Nutzerkreises eine Normierung vorgenommen wird. Im Falle UNZ ist das eben für die Frakturschrift im deutschsprachigen Raum. Wenn dann eine andere Interessengruppe, z.B. die Anhänger R. R. Tolkiens sich jetzt auf eine für sie weltweite Codierung für Tengwar einigen, dann ist es auch kein Problem, wenn dies dann auf den gleichen Codeplätzen statt findet, da hier kaum eine Verwechselung vorkommen wird. Und in dem Moment, wo sich eben eine größere Anzahl der Nutzer an die Empfehlung dieser Interessengruppe halten, wird daraus auch eine "anerkannte Organisation" und aus der Empfehlung eben auch eine Norm. Als es den Unicode noch nicht gab, und man alle Sprachen auf die ANSI-Codeplätze zwischen Hex 20 bis Hex FF packen musste, war die Situation für nicht lateinische Sprachen ja auch nicht anders. Es wurden sprachabhängige Sondernormen erlassen, welche dem ANSI-Code oft deutlich widersprachen, um überhaupt die Sprachgruppen-interne Schriftart nutzen zu können. Wird der Text dann in einer lateinischen ANSI-Schrift dargestellt, kommt auch nur Blödsinn heraus.

Ach so, für diese Fantasie-sprachen, für die durchaus auch ein Wunsch besteht, diese in Unicode aufzunehmen, gibt es tatsächlich auch so einen Interessen-Norm-Verband der den PUA nutzt, dies kommt aber kaum in Konflikt mit UNZ. Siehe hier: http://www.kreativekorp.com/ucsur/

Und letztlich wurde der PUA nicht unbedingt nur dafür geschaffen, dass jeder da seine Zeichen unterbringt, wie immer er es möchte, sondern eben auch, um dort innerhalb einer Nutzergruppe sich auf eine einheitliche Verwendung für Zeichen einigen zu können, die vom Unicode-Konsortium (auch nur einem Verein!) (noch) nicht aufgenommen wurden.

Link zu diesem Kommentar

und aus vielen dieser Industrie-Normen wird nie eine DIN oder ISO-Norm

Sorry, aber du benutzt die Begriffe falsch, damit sie zu dem für dich passenden Ergebnis führen. Was du »Industrie-Norm« nennst, ist der Industrie-Standard/De-facto-Standard und eben gerade keine Norm. »Industrie-Norm« war nicht umsonst die Herkunft der Abkürzung DIN. Hinter diesen Normen steht die Normungsorganisation und eben gerade keine Standardisierung durch reine Üblichkeit. 

Standard und Norm (und natürlich erstrecht nicht »Empfehlung«) sind in ihrer deutschen Verwendung keine Synonyme. 

 

Und in dem Moment, wo sich eben eine größere Anzahl der Nutzer an die Empfehlung dieser Interessengruppe halten, wird daraus auch eine "anerkannte Organisation" und aus der Empfehlung eben auch eine Norm.

 

Der BfdS wird eine »anerkannte Normungsorganisation«? Na das fehlte noch! ;-)

Der gerade zitierte Satz stimmt aber auch nicht. Wie oben schon gesagt: Wenn sich eine größere Zahl der Nutzer an die Empfehlung hält, wird aus der Empfehlung ein Industriestandard/De-facto-Standard, keine Norm. 

Link zu diesem Kommentar
catfonts

Mir ist es eigentlich ziemlich egal, als was du UNZ ansiehst, als "Interessenguppen-Norm" als "de facto-Standard" oder als Privatsache im Private-Bereich des Unicodes. Fakt ist, dass damit eine Möglichkeit besteht, eine größere Anzahl an Schriften mit einheitlicher Belegung auf praktisch jeder Software zu nutzen, und anders als bei den vorherigen Sonderbelegungen, die jeder Schriften-Digitalisierer sich selbstr erdacht hat, sind die Schriften dadurch nicht nur austauschbarer, sondern normal formatierter lateinisch geschriebener Test bleibt auch in diesen Schriften problemlos lesbar, wenn auch mit Verzicht auf ſ und Ligaturen.

 

Stellt man sich dagegen auf den Stand, Ligaturen und - wohl möglich auch das ſ sollte nur über OpenType-Funktionen und damit uncodiert erreichbar sein, dann würde man der Mehrzahl der Nutzer einfach die Möglichkeit zu vollständigen Nutzung der Schrift nehmen, sollen sich die doch InDesign lizensieren.

 

Jedenfalls sehe ich nicht, dass ein paar dutzend Frakturschriften mit OpenType-Ligaturen auch nur einen Software-Hersteller dazu bringt, endlich auch eine vollstänsige OpenType-Unterstützung anzubieten, denn dafür gibt es eigentlich ja längst weit wichtigere Gründe, so ist es beispielsweise noch immer nicht möglich, in CorelDRAW Arabisch zu schreiben. Von all den kleinen Spezialprogrammen, die irgendwie Schrift nutzen mal ganz abgesehen.

 

Und wenn es dann eine Typografie.info-Privatempfehlung gäbe, die das Problem für jedermann besser löst, dann wär ich der letzte, der dann dies nicht gutheißen würde.

Link zu diesem Kommentar

Fakt ist, dass damit eine Möglichkeit besteht, eine größere Anzahl an Schriften mit einheitlicher Belegung auf praktisch jeder Software zu nutzen…

 

Das haben wir hier glaube ich auch alle verstanden.

Für mich macht aber auch der Ton die Musik. Wenn diese »technische Kodierungsempfehlung« (mehr ist es ja schließlich nicht) genau so genannt und man Vor- und Nachteile sachlich aufzeigen würde, dann könnte das ganze Unterfangen auch eine bessere Außenwirkung haben.

 

Ich hab übrigens mal beim DIN nachgefragt, wie man zu so einer »freien Verwendung« des Begriffs Norm steht. Es wurde genau das bestätigt, was hier auch schon gesagt wurde. Der Begriff wird im Falle der UNZ-Belegung falsch verwendet, da ein Normungsprozess an einem Normungsinstitut suggeriert wird, ohne dass dieser tatsächlich stattgefunden hat. Da der Begriff Norm, wie Catfonts ja schon sagte, aber in diesem Sinne nicht geschützt ist, kann man gegen die falsche Verwendung in diesem Fall auch kaum vorgehen, solange nicht Begriffe wie DIN/ISO etc. explizit genannt werden. 

Link zu diesem Kommentar
catfonts

Nun, das klingt doch nach einer Sprachreglung, auf die man sich einigen kann, Wobei ich persönlich die Bezeichnung als Norm doch nicht so als falsch empfinde. Schließlich habe ich in meinem Maschinenbau-Studium von einem Professor, der selbst auch Mitglied eines Normenausschusses war (in diesem Fall über den VDI für den Fachbereich Kunststofftechnik), dass letztlich alle Normen, mit Ausnahme der Standards in den einstigen RGW-Ländern, welche dort Gesetzescharakter hatten, letztlich immer nur technische Empfehlungen sind. Sei es für die Maße, die physikalischen Eigenschaften und der Gestaltung von Produkten, oder bestimmte Vorgehensweisen. Grundstock solcher Empfehlungen sind ja letztlich auch oft Hausnormen, die sich dann zu Normen innerhalb von Interessengemeinschaften entwickeln, wie es beispielsweise bei den 2 konkurrierenden DVD-Standards war, denen sich dann, aus reiner technischer Notwendigkeit dann auch andere anschließen, und daraus können dann nationale oder internationale Normen werden. Das Normen letztlich immer nur Empfehlungen sind, ist ja auch gut, schließlich ergibt sich ebnen auch die Möglichkeit des technischen Fortschritts, selbst wenn dies aktuellen Normen widerspricht.

 

Ich habe zu einigen derer, die hinter UNZ stehen auch Kontakt, und bekomme auch Entwürfe, wenn, es einer Erweiterung bedarf, zwecks Prüfung und evtl. Einspruch. Und auch die sehen in UNZ letztlich eine Notlösung, die hoffentlich möglichst bald obsolet werden sollte, würde sich in der Software-Industrie etwas bewegen, und das Interesse an OpenType endlich steigen. Nur wird das wohl noch einige Zeit so sein, dass normale Nutzer mit Software konfrontiert sind, die hier eben keine Unterstützung bieten. Und so lange es noch einfacher ist, Phantasiesschriften, die für eine Fernsehserie oder eine Buchreihe ersonnen wurden, einen Platz im Unicode zu verschaffen, als eben seit Jahrhunderten genutzter topografischer Sonderformen innerhalb der lateinischen Schrift, ist es eben notwendig, innerhalb einer Interessengruppe, die eben deutlich größer als lediglich die Mitgliederzahl eines Vereins ist, eine „technische Empfehlung“ = Norm für den Einsatz eines von Unicode bereitgestellten Freiraums zu schaffen, wobei dann eben dies mit ähnlichen Interessengruppen, wie z.B. MUFI angestimmt werden muss.

 

Das Argument, dass eine offizielle Unicode-Normierung von Verbünden die Durchsuchbarkeit stören würde, sehe ich hier als ein sehr oberflächliches Argument, denn schließlich trifft das dann auch erst einmal für jedes irgendwie neu hinzugekommene Zeichen zu. Wenn die Betreiber von Suchwerkzeugen nicht nachlegen, wird ein Herr MEẞNER ja auch nicht gefunden, wenn nach Meßner gesucht wird.

 

Und auch einem schließe ich mich an: Der Ton macht die Musik...

Link zu diesem Kommentar

… dass letztlich alle Normen … immer nur technische Empfehlungen sind.

Du hast leider den Unterschied, auf den es mir ankommt, immer noch nicht verstanden. Ja, alle Normen sind letztlich Empfehlungen, aber daraus folgt nicht, dass alle Empfehlungen Normen sind. Vergleiche: Letztlich ist jeder Daumen auch nur ein Finger, aber nicht jeder Finger ist damit auch ein Daumen. ;-)

Empfehlungen werden durch einen Normungsprozess an einem Normungsinstitut zu einer Norm, nicht indem jemand ein PDF ins Netz stellt und es »Normblatt« nennt und der Empfehlung einen Namen gibt, indem das Wort »Norm« vorkommt.

 

Das Argument, dass eine offizielle Unicode-Normierung von Verbünden die Durchsuchbarkeit stören würde, sehe ich hier als ein sehr oberflächliches Argument …

 

Wie oben schon gesagt: Digitale Texte werden digital verarbeitet. Kopiert, indiziert, durchsucht. UNZ würde da bei entsprechender Verbreitung einen gewaltigen Keil in die deutsche Schriftanwendung treiben, der dauerhafte Inkompatibilität zu herkömmlichen Texten erzeugt. Dass das von den ausgewiesenen »Freunden der Schrift und Sprache« daher so gefördert wird, wundert mich. Man sollte doch eigentlich gerade ein Interesse daran haben, zukunftstaugliche Texte zu erzeugen. Und UNZ kann das nicht, wie du ja auch schon sagt. Es ist eine relativ kurz gedachte Notlösung. 

 

 

denn schließlich trifft das dann auch erst einmal für jedes irgendwie neu hinzugekommene Zeichen zu. Wenn die Betreiber von Suchwerkzeugen nicht nachlegen, wird ein Herr MEẞNER ja auch nicht gefunden, wenn nach Meßner gesucht wird.

Doch, natürlich. Probier’s doch mal in Google aus! Es funktioniert doch längst. 

Die Beziehungen zwischen Groß- und Kleinbuchstaben sind in allgemeinen und spezifischen Unicode-Mapping-Regeln festgelegt und die Software-Anbieter (bzw. hier Suchmaschinen) benutzen diese und können darüber hinaus auch historische oder sinngemäße Varianten berücksichtigen – was ja Google zum Beispiel sowohl in der Suchmaschine als auch zum Beispiel in seiner Bücherdigitalisierung der Welt tut. UNZ-Texte werden hier niemals vernünftig einbindbar sein. Es sind eben wahllose PUA-Codes, die keine Verbindung zu den standardisierten sinntragenden deutschen Schriftzeichen haben und auch nicht haben können. 

Link zu diesem Kommentar

Und zu dem funktionierenden ẞ bei Google hier noch der Gegenbeweis zu UNZ: »Deutsche Schrift« UNZ-kodiert in der Google-Suche:

http://lmgtfy.com/?q=%22Deut%C5%BF%EF%86%BBe+S%EF%86%BBri%EE%BB%8B%22

 

Das umgekehrte Ergebnis wäre natürlich das gleiche. Ein UNZ-kodierter Text mit der Überschrift »Deutsche Schrift« (z.B. in einem PDF) würde über die Suche nach dem korrekt kodiert kodierten Text »Deutsche Schrift« (ohne UNZ) wohl nicht gefunden werden. Ist das wirklich in »Eurem« Interesse und nur ein »oberflächliches Argument« von mir?

Link zu diesem Kommentar
Mueck

Die Beziehungen zwischen Groß- und Kleinbuchstaben sind in allgemeinen und spezifischen Unicode-Mapping-Regeln festgelegt und die Software-Anbieter (bzw. hier Suchmaschinen) benutzen diese und können darüber hinaus auch historische oder sinngemäße Varianten berücksichtigen

Stimmt, ich erinnere mich dunkel an eine solche Tabelle in den Untiefen der Unicode-Dateien.

Die liegen aber auf einem derzeit schwächelnden Rechner, weswegen ich gerade da nicht reinschauen kann ...

Was sagen denn diese Mapping-Tabellen zu den offiziellen Ligaturen fi & Co.?

Theoretisch müsste man Ligturen doch auch tabelliert mappen können und damit auch neue Ligaturen analog zu neuen Großbuchstaben wie dem Versal-Eszett und eines Tages evtl. auch dem Versal-lang-s ;)

Link zu diesem Kommentar

Was sagen denn diese Mapping-Tabellen zu den offiziellen Ligaturen fi & Co.?

 

Na logischerweise die Auflösung von fi zu FI.

 

Theoretisch müsste man Ligturen doch auch tabelliert mappen können und damit auch neue Ligaturen …

Aber nicht bei PUA-Ligaturen, weil da man da ja nicht wissen kann, welche Glyphe hinter dem Code steht. 

Link zu diesem Kommentar
Wrzlprmft

Das wäre dann doch eigentlich ein Argument für einen Block „Historical Ligatures“?

… das leider nicht an dem Gegenargument zu rütteln vermag, dass Unicode mit dem ZWJ bzw. ZWNJ bereits eine Möglichkeit zur Verfügung stellt, sämtliche Ligaturen zu kodieren.
  • Gefällt 2
Link zu diesem Kommentar
catfonts

… das leider nicht an dem Gegenargument zu rütteln vermag, dass Unicode mit dem ZWJ bzw. ZWNJ bereits eine Möglichkeit zur Verfügung stellt, sämtliche Ligaturen zu kodieren.

Unicode? Du meinst sicherlich OpenType?

 

Denn nur mit Unicode und ZWJ bzw ZWNJ geht es mangels vorhandener nur über Unicode erreichbarer Glyphen definitiv nicht, bzw. es werden durch überlappen der normalen Glyphen erzeugte Pseudo-Ligaturen, die nur in den seltensten Fällen wirklich vernünftig aussehen.

 

Und da steht man dann wieder vor dem Problem, dass selbst Profi-Programme da oft nicht mitspielen, und die Hersteller offensichtlich kein Interesse zeigen, daran etwas zu ändern. Von den tausenden Programmen, welche von Amateuren genutzt werden, die möglicherweise sehr wohl ein Interesse an der Nutzung der Ligaturen haben, mal ganz zu schweigen.

 

Auf alle fälle möchte ich gerne die Möglichkeit, alle Ligaturen NUR mit Unicode und ohne OpenType-Funktionen mittels ZWJ bzw ZWNJ codiert in Aktion zu sehen. Ich lasse mich da gern überzeugen, wie das in der Praxis geht.

In den Spachen, in denmen es praktisch unmöglich ist, ohne Ligaturen zu schreiben, und für die der ZWJ bzw ZWNJ eigentlich ja auch aufgenommen wurde, sind die Ligaturen ja auch mit einem Codeplatz versehen.

 

Dass es dann in den Textverarbeitungen dann ohne OpenType geht A (mit Code 1)  ZWJ + B (mit Code 2) ergibt in der Anzeige die AB-Ligatur mit Code 4711 steht dann auf einem ganz anderen Zettel, was dann auch das Prpblem mit der Durchsuchbarkeit löst. So wird das ja beispielsweise bei den Indischen Schriften gelöst.

Link zu diesem Kommentar

Unicode? Du meinst sicherlich OpenType?

 

Nein. Wrzlprmft sprach vom Kodieren. Das ist prinzipiell erst einmal völlig unabhängig von Fontformaten und Anwendungsprogrammen. Und diese Eigenheit ist schließlich überhaupt der Clou an diesem System.

 

Von den tausenden Programmen, welche von Amateuren genutzt werden, die möglicherweise sehr wohl ein Interesse an der Nutzung der Ligaturen haben, mal ganz zu schweigen.

 

 

Und wie würden denn diese Amateure PUA-Codes eingeben? Für diese Zielgruppe sind doch die »falschen Kodierungen« bestehender gebrochener Schriften sogar die zweckmäßigste Variante. 

Link zu diesem Kommentar
Wrzlprmft

Unicode? Du meinst sicherlich OpenType?

Nein, ich meine Unicode. OpenType hat etwas mit der graphischen Darstellung des Kodierten zu tun, die Unicode nicht zu interessieren braucht. Primärer Sinn und Zweck von Unicode ist, inhaltlich relevanten Zeichen eineindeutig Zahlenfolgen zuzuordnen. So ist z. B. eine ch-Ligatur (ob nun inhaltlich relevant oder nicht) der Zahlenfolge 0063;200D;0068 zugeordnet oder ð̧ der Zahlenfolge 00F0;0327. Dass diese Zahlenfolgen auch vernünftig angezeigt werden, ist dann erstmal die Sache der Anzeigeprogramme und entsprechender Standards, wie z. B. OpenType.

 

PS: Ralf war schneller, aber ich lasse es mal stehen, da es ausführlicher ist.

In den Spachen, in denmen es praktisch unmöglich ist, ohne Ligaturen zu schreiben, und für die der ZWJ bzw ZWNJ eigentlich ja auch aufgenommen wurde, sind die Ligaturen ja auch mit einem Codeplatz versehen.

Ich kenne mich mit diesen Sprachen zu wenig aus, aber sicher, dass es sich hier nicht um Kodierungen zwecks Abwärtskompatibilität oder verblasste Ligaturen (so wie w und ß) handelt?
Link zu diesem Kommentar

In den Spachen, in denmen es praktisch unmöglich ist, ohne Ligaturen zu schreiben, und für die der ZWJ bzw ZWNJ eigentlich ja auch aufgenommen wurde, sind die Ligaturen ja auch mit einem Codeplatz versehen.

 

Nein, das ist falsch. 

Ligaturen und diakritische Zeihen sind – wie ja schon öfter gesagt – explizit nur da aufgenommen worden, wo historische Codepages aus Kompatibilitätsgründen in Unicode eingeflossen sind. Wenn es keine historische Codepage gab, fehlen auch die entsprechenden Ligaturen und Diakritika und Versuche diese zu kodieren werden abgeschmettert. (Ein Beispiel für so einen Fall ist Tamil.)

  • Gefällt 1
Link zu diesem Kommentar
catfonts

 

Und wie würden denn diese Amateure PUA-Codes eingeben? Für diese Zielgruppe sind doch die »falschen Kodierungen« bestehender gebrochener Schriften sogar die zweckmäßigste Variante. 

 

Nun, da die Glyphen ja dann direkt aufrufbar sind, auf diverse Art:

Erst einmal natürlich über die hier schon erwähnten Eingabe-Hilfsprogramme, die dann bei Eingabe von z.B. ch dann den Unicode der ch-Ligatur ausgibt, bei c+ZWNJ+h dann eben nicht, oder die dafür nötigen Regeln komplett enthält, und damit dann den umgestellten Text jeder anderen Anwendung übergeben kann,

 

Zweitens über einen modifizierten Tastaturtreiber über z.B. AltGr + c dann das ch ausgibt

 

Drittens über die Zeichentabelle, die ja jede Glyphe mit einem Unicode-Platz anbietet, nicht jedoch uncodierte Glyphen, die nur über eine Smartfont-Technik wie OpenType, Graphite oder AAT ansprechbar sind.

 

Viertens über eine Code-Liste und die Eingabe über Alt + Code

 

Und fünftens über ein Beispieldokument, aus dem man sichg die benötigten Glyphen einzeln heraus kopiert.

 

Das ist ja nun wirklich kein Problem.

 

Wenn man aber sagt, man könne die ch-Ligatur einfach über die Unicodes 0063;200D;0068 codieren, dann mag das ja auch stimmen, das Ergebnis wird aber über eine noch sehr lange Zeit nur die Darstellung der Einzelbuchstaben sein. Das mag bei ch nicht problematisch sein, aber bei den ſ-Ligaturen, gerade wenn dann ein Buchstabe mit linker Oberlänge folgt, ist das problematisch, da hier die die Ligaturen entsprechend umgestaltet sind, diese aber für mehr als 99% aller derzeit genutzten Programme nicht erreichbar sind, und ich fürchte sehr, das dies noch eine lange Zeit so sein wird.

 

Ich habe zum Beispiel von einem Spieleentwickler erfahren, dass dieser für ein Detektiv-Spiel Texte in möglichst historisch richtig gesetzter Fraktur einsetzen wollte, und mich um die Erlaubnis für meine Mainzer Fraktur gefragt hat. Ich hatte ihm empfohlen, statt dessen die Unifraktur zu nutzen, worauf dieser mir erklärte, dass es für die Spieleentwicklung keine Laufzeitbibliotheken für die Unterstützung der darin verwendeten Smartfont-Techniken

gäbe, für OpenType erst recht nicht., Der kopierte dann die Ligaturen aus einer Tabelle einzeln in seine Texte hinein, zumeist über Suchen und Ersetzen.

 

Um welches Spiel das geht, kann ich leider nicht mehr sagen, da der Fall für mich dann erledigt war.

 

 

Aufgrund der Diskussion hier habe ich mir daher die Sache mit dem Indian Script Code for Information Interchange mal genauer angesehen (hierfür wurden ZWNJ und ZWJ ja ursprünglich in Unicode aufgenommen, und Richtig, Ligaturen habe ich tatsächlich nicht gefunden, daher eine Lösung, die sich vielleicht ja auf Fraktur übertragen ließe, nämlich die Lösung mit „Halbbuchstaben“ die dann tatsächlich einen Unicode-Platz haben. Dann braucht man kein ch und ck, sondern nur ein spezielles „koppel-c“ der dann mit c+ZWJ das normale c ersetzt. Na ja, das wär ja eine 180° Drehung zu einem gänzlich anderen System, dafür ist es wohl auch zu spät...

Link zu diesem Kommentar
Þorsten

Wenn man aber sagt, man könne die ch-Ligatur einfach über die Unicodes 0063;200D;0068 codieren, dann mag das ja auch stimmen, das Ergebnis wird aber über eine noch sehr lange Zeit nur die Darstellung der Einzelbuchstaben sein.

Weißt du, ich kann es gut verstehen – und habe es oft erlebt – dass jemand, der viel Zeit und Energie in einen Lösungsansatz investiert hat, Schwierigkeiten hat, einen neuen Ansatz als überlegen zu akzeptieren. Daher ist mir schon klar, warum du deine Lösung hier so energisch verteidigst.

 

Aber die (von mir oben gekennzeichnete) Prämisse, die du immer wiederholst, ist m.E. mittlerweile wenigstens fragwürdig, wenn nicht ganz und gar falsch. Die von Profis bevorzugten Tools, InDesign in der Welt kommerzieller Software und XeTeX in der Open-Source-Welt, kommen längst problemlos mit Opentype-Ligaturen und den standardkonformen Unicodezeichen ZW(N)J klar. Für (Halb?-)Profis und interessierte Amateure gibt es Microsoft Office, das seit Version 2010 Opentype-Ligaturen unterstützt. Was Open-Source-Fans angeht, ist es nur eine Frage der Zeit, bis OpenOffice.org und LibreOffice in diesem Punkt mit Microsoft mitziehen, weil sie das Selbstverständnis ihrer Produkte – funktionale Äquivalente zu Word zu sein – sonst ad absurdum führen würden. Für die komfortable und standardisierte Eingabe von ſ und Bindehemmer – mehr braucht man nicht, um mit Opentype-Fonts historisch korrekte Frakturtexte einzugeben – gibt es T2-Tastaturen.

 

Dagegen setzt du eine Insellösung, die in Punkto Suche und Archivierung Probleme bereitet, nur mit auf genau diese Insellösung zugeschnittenen Spezialfonts und dann nicht plattformübergreifend funktioniert, weil das Hilfsprogramm anscheinend nur für Windows existiert. Und all das für eine stetig schwindende Sammlung von legacy tools, weil die Standardprogramme die gesuchte Funktionalität eben immer mehr über Opentype zukunftssicher unterstützen. Ist dir wirklich nicht klar, dass du auf einem absteigenden Ast sitzt?

Link zu diesem Kommentar

Erstelle ein Benutzerkonto oder melde dich an, um zu kommentieren

Du musst ein Benutzerkonto haben, um einen Kommentar verfassen zu können

Benutzerkonto erstellen

Neues Benutzerkonto für unsere Community erstellen. Es ist einfach!

Neues Benutzerkonto erstellen

Einloggen

Du hast bereits ein Benutzerkonto? Melde dich hier an.

Jetzt anmelden

Unsere Partner

Entdecke hunderte Font-Sonderangebote.
Hier beginnt deine kreative Reise.
Mit über 130.000 Fonts der größte Schriften-Shop im Internet.
FDI Type Foundry besuchen
Graublau Slab Pro: Die ausdrucksstarke Ergänzung zur beliebten Graublau Sans.
×
×
  • Neu erstellen...

🍪 Hinweis:

Wir benutzen funktionale Cookies.