Bonjour à toutes et à tous,
la seule contradiction présentée ici, est le rejet de l'existence même des caractères spéciaux. Le standard est le code ASCII. La micro informatique fonctionne avec ce standard. Je ne parle pas du WEB mais des micro-ordinateurs. Lorsque vous faites du développement en C, C++, Java, les caractères que vous manipulez sont de l'ASCII. Il y a la possibilité de travailler avec de l'UNICODE, mais c'est plus lourd à mettre en œuvre dans les programmes informatiques, car cela nécessite plus de déclaration.
Il faut se rappeler que les premiers ordinateurs possédaient qu'un seul jeu de caractères l'ASCII et il n'y avait que des éditeurs de texte (qui modifie que du texte). Et pour ce que l'on en faisait (saisie du source des programmes informatique), cela était largement suffisant.
M. Niuxe, je vous parle de mon expérience en informatique et non d'une erreur historique de ma part, du développement des caractères.
En 1980, en France, dans le monde des entreprises, il n'y avait pas de micro-ordinateurs. Les Apple ont été commercialisés dans le monde vers les années 1977-1978 et le temps qu'ils viennent des états-unis en Europe et qu'ils soient commercialisés puis ensuite adoptés, il s'est écoulé plusieurs années. Le tout premier micro-ordinateur dont je me souviens à un usage d'entreprise fut l'ITT 2020 et il était une copie de l'APPLE II.
Et même si les PostScript et TrueTYpe ont été créé en 1980-1982, elles ne sont véritablement apparues dans le grand public que lors de l'introduction des traitements de textes dans la micro-informatique, soit essentiellement avec l'apparition grand-public du mac-intosh. Et je vous rappel qu'en 1986, l'internet n'existait pas pour le grand public. Donc si en apparence, j'ai inversé l'ordre chronologie, la raison est toute simple : il fallait un micro-ordinateur pour pouvoir s'en servir, et surtout un micro qui puisse faire l'usage des traitements de textes et non des éditeurs de textes comme c'était le cas à l'époque.
Hormis l'Apple II qui a été mon premier micro personnel, j'ai, au travers des entreprises, surtout travaillé avec le système d'exploitation WINDOWS dans le cadre des émulations des consoles IBM 3270 (comme par exemple EXTRA) pour accéder aux gros systèmes IBM.
C'est au travers des traitements de textes (comme WORD) que j'ai vu l'introduction des polices de caractères. Le WEB n'existait pas encore en 1986. Il allait apparaitre dix ans plus tard en 1994-1995 dans le grand public.
Mais à cause de la limitation des 128 caractères américains du code ASCII, il est tout à fait normal qu'apparaisse de nouveau jeu de caractères qui dans un premier temps pouvait répondre à des besoins comme par exemple les claviers. Il existait en France deux type de claviers, les QWERTY donc américains et les AZERTY donc français. Je parle essentiellement des premiers micro-ordinateurs IBM acceptant le système d'exploitation WINDOWS. Pour court-circuité le jeu de caractères natif (en ROM), il fallait au démarrage MSDOS chargé un jeu de caractères (sous la forme d'un fichier) qui était déclaré dans l'AUTOEXEC.BAT.
L'introduction des traitements de textes, allait "chambouler" tout ce qui se faisait en tant que jeu de caractères car pour l'ensemble, ils étaient inadaptés et non normalisé. Un jeu de caractères, tel que je l'ai appris, est un ensemble de caractères associé à un code numérique et ayant un dessin du caractère non modifiable et souvent représenté sous la forme de pixel. Cela vient essentiellement du monde de l'électronique et des télécommunications.
Dans un premier temps, l'unicode est venu supplanté les limites du code ASCII, mais non pas dans le cœur de la machine, mais dans les traitements de textes. Ce sont les débuts de la PAO. Je n'ai jamais fait de PAO, car en entreprise sur nos micros, on avait que WORD. Par la suite, et surtout avec l'avènement du WEB, de nouvelles normes sont venues remettent tout cela en cause (donc à partir des années 1994 en France).
Donc dire que l'ASCII va disparaitre est une aberration car tous les micros fonctionnent avec ce jeu de caractères. Maintenant, si vous parlé de l'unicode UTF-8 ou encore du standard ISO-8859-1, et dans une moindre mesure tout ce que vous appelez un "charset" qui à été mal traduit par un jeu de caractères, je ne vous contredirais pas sauf sur un point : ce sont tous des caractères spéciaux car issus du code ASCII.
Donc maintenant si vous me dites que c'est faux, je vous pose la question concernant, par exemple, le standard de la lettre A, en tant que dessin ou forme reconnu et admis par tout le monde ?
La réponse est : il n'y en a pas.
Et pourquoi donc ? Car il existe différentes origines, et différentes représentations aussi bien typographique qu'informatique et même s'il y a une sorte de normalisation afin de pouvoir s'y retrouver dans toutes ces polices de caractères, ils sont tous des caractères spéciaux car ils sont spécifiques à une police de caractères.
@ fvsch : ah, oui, je précise ici, que j'ai lu ton
astuce avant de me prononcer !
@+
Modifié par Artemus24 (24 Jul 2011 - 17:36)