La stéganographie : une dissimulation de données


Unicode désigne un standard informatique dont le principal rôle est de faciliter les échanges de textes en langues variées et surtout sur le plan international. Cette méthode a pu voir le jour, grâce à l’initiative du Consortium Unicode. Elle est basée surtout sur le codage de texte écrit tout en veillant à ce que tout caractère ait un nom ainsi qu’un identifiant numérique. À noter que ce standard est défini par la norme ISO 10646. Une plus récente version, baptisée Unicode 8.0 a été lancée le 17 juin 2015.

La standardisation de l’Unicode

unicode.jpg

Avec la standardisation de l’Unicode, l’on s’attend à des exigences facilitant l’évaluation de la conformité d’un logiciel à ce standard. Ces normes s’appliquent généralement sur huit points différents, dont la casse, la normalisation, les algorithmes, le codage des caractères, la définition d’une modification d’interprétation du texte, l’affichage du texte bidirectionnel, le traitement de Points de Code et l’interprétation des séquences de caractères. Si la norme ISO/CEI 10646 est différente d’Unicode, c’est que ce dernier dicte des exigences de conformité en sus. Toutefois, il est remarqué qu’avec ce standard, le codage de tous les textes ne s’effectue généralement pas de la même façon. Si certains adoptent la convention NCF, d’autres font appel à la convention NFD.

Les polices de caractères

steganographie.jpg

Avec Unicode, tous les caractères sont codés de manière à adopter un numéro ou des symboles tout en respectant la logique du codage. Toutefois, les représentations graphiques ne sont pas prises en compte avec ce standard. Les polices de caractères désignent des polices ouvrant vers des textes codés. Elles permettent aussi d’avoir accès à un sous-ensemble présenté sous des langues différentes et supportant diverses écritures. À noter que chaque police de caractère n’est opérationnelle qu’en groupe. D’ailleurs, le support de l’écriture requiert un support des polices de caractères.