Seit Unicode Version 3.0 gehen die definierten Zeichen über die 16-Bit Grenze hinaus, d.h. es sind 32 Bit nötig um ein Zeichen darzustellen.
AFAIK ist in .NET das Char-Zeichen 16-Bit groß und der String UTF-16 codiert (soweit ich aus der MSDN herauslesen konnte). D.h. diese Zeichen müssten ja in .NET verarbeitbar sein (z.B. die Length-Methode müßte eine korrekte Länge des "zurückcodierten" Strings liefern).
Darstellbar wird es jedoch auf absehbare Zeit nicht sein, da die Win32-API ja nur Widestrings (16-Bit, nicht UTF-16) verarbeitet bzw. keine Fonts mit diesen neuen Zeichen gibt (Können TrueType/OpenType-Fonts überhautp mehr als 65535 Zeichen beherbergen?).
Hat hier jemand genauere Infos bzw. Erfahrungen bezüglich 32-Bit Zeichen?
Bernhard
AFAIK ist in .NET das Char-Zeichen 16-Bit groß und der String UTF-16 codiert (soweit ich aus der MSDN herauslesen konnte). D.h. diese Zeichen müssten ja in .NET verarbeitbar sein (z.B. die Length-Methode müßte eine korrekte Länge des "zurückcodierten" Strings liefern).
Darstellbar wird es jedoch auf absehbare Zeit nicht sein, da die Win32-API ja nur Widestrings (16-Bit, nicht UTF-16) verarbeitet bzw. keine Fonts mit diesen neuen Zeichen gibt (Können TrueType/OpenType-Fonts überhautp mehr als 65535 Zeichen beherbergen?).
Hat hier jemand genauere Infos bzw. Erfahrungen bezüglich 32-Bit Zeichen?
Bernhard