Vous avez dit "caractère" ?

Ces derniers jours, j’ai cherché à mieux comprendre comment gérer UTF-8 dans une de mes applications hobby et j’ai appris pas mal de choses :)

D’abord, j’avais oublié que ASCII était codé sur 7 bits et non pas 8 bits. C’est grâce à ça que UTF-8 est automatiquement compatible avec ASCII (UTF-8 est codé avec des blocs de 8-bits, il leur a suffit de dire que le premier bit est 0 pour les 127 premiers Unicodes encodé en UTF-8).

Les 7 bits m’ont surpris, car ce n’est pas dans nos habituelles puissances de 2. Mais en fait, ASCII fait partie d’une époque où la mémoire et les disques étaient vraiment très cher et il valait donc vraiment mieux ne pas être trop gourmand.

J’ai également appris que pour le langage C, le type char n’est pas forcément dédié aux caractères, mais plutôt à un stockage d’au moins 8 bits[^1].

En pratique, les tailles minimum pour les types C, sont: char avec au moins 8 bits (1 octet), short et integer 16 bits, long 32 bits et long long 64 bits.

Donc, pour pouvoir stocker des entiers sur (au moins) 8 bits (et non pas sur au moins 16 bits), il faut utiliser char. C’est pour stocker ces entiers que l’on a aussi signed char et unsigned char, même si ça n’a pas de sens d’avoir un "caractère signé" a priori :)

Ensuite, j’ai enfin trouvé à quoi sert GString dans GLib et pourquoi c’est toujours dit "compatible UTF-8" partout dans la documentation des fonctions liées à GString: d’après sa description[^2], il faut juste interpréter une GString comme un tableau dynamique de bytes avec la sûreté d’avoir le caractère NUL de terminaison de string et d’avoir une propriété len qui donne le nombre d’octet jusqu’à ce caractère NUL. En plus ce type est associés à plusieurs fonctions généralistes de gestion de texte.

Et là, je me suis dit, mais en fait ça ressemble énormément à std::string de C++: un tableau dynamique d’octets avec une propriété len. Mais si je me souviens bien, il y a d’autres types de string en C++ pour la gestion Unicode ? À quoi servent-ils ?

Eh bien, il y a effectivement std::wstring et 3 autres. wstring utilise le type wchar_t qui est un "wide character", mais qui n’est de nouveau pas définit explicitement dans le standard C.

En cherchant (encore !) des explications sur StackOverflow à propos de wchar, j’ai trouvé ce lien des "personnes qui sont contre leur utilisation": https://utf8everywhere.org/

Ils donnent beaucoup d’information à propos d’UTF-8 vs UTF-16 vs UTF-32 et pourquoi ils pensent que c’était inutile d’inventer wchar_t que finalement seul std::string était utile au C++[^3].

En reprenant son pendant GString en C, j’ai enfin eu la confirmation du pourquoi c’est effectivement suffisant pour stocker des strings en UTF-8, puisqu’il faut juste pouvoir avoir un ByteArray pour le stockage.

Pour l’interprétation de la donnée, il faut évidemment utiliser les bonnes fonctions (comme utiliser g_uf8_normalize avant de faire des comparaisons de string, par exemple) et bien comprendre quelle définition de "caractère" on a en tête (utf8everywhere donne 7 définitions différentes et incompatibles !).

Voilà, maintenant pour mon application en C, je sais que j’ai besoin de pouvoir traverser un mot donné par itération sur ses "grapheme cluster". Il ne me reste plus qu’à trouver un bon moyen de le faire :)


[^1]: le standard n’est pas explicite sur la taille des types de base. char doit pouvoir contenir le basic execution character set et garantir que sa valeur numérique est non-négative. Ce qui revient en pratique à utiliser au moins 8 bits pour char.

[^2]: oui, j’ai donné le lien de l’ancienne documentation, parce que la nouvelle a perdu cette description. J’ai essayé de rapporter le bug, en espérant l’avoir ouvert dans le bon projet !

[^3]: à la condition que le standard dise que le basic execution character set doit être capable de stocker n’importe quelle donnée Unicode. Ce serait facile de le faire grâce à UTF-8 qui est compatible avec la définition actuelle de char.