El material informático está compuesto de números. En los viejos tiempos, solo podía almacenar un número de 0 a 255 en un byte (lugar) de memoria de la computadora. Se decidió que todo lo que se podía ver en la pantalla de una computadora (y algunos caracteres de formato) debería estandarizarse, y ASCII es esa lista.
A = 65
B = 66
a = 97
b = 98
Etcétera. Incluía todos los símbolos normales del teclado, mayúsculas y minúsculas, y como mencioné, el formato (final de línea, retroceso, tabulación, etc.).
Y solo hay 255 espacios para hacer esto (256 si incluye cero).
- ¿Alguna fuente es un promedio de escritura humana o son todas arbitrarias?
- ¿Qué utilizarías como tipo de letra del sistema iOS?
- Tipografía: ¿Qué opina de que Apple usa Helvetica Neue en lugar de Lucida Grande como la familia de fuentes predeterminada en OS X?
- ¿Están muriendo los rostros serif?
- ¿Qué fuentes gratuitas son mejores para usar en libros de programación?
Como puede imaginar, con todos los idiomas del mundo, todas las letras y símbolos no cabían en 255 espacios, por lo que Unicode comenzó como dos espacios juntos, lo que da 65535 posibilidades (dos bytes). Los primeros 256 lugares de Unicode son los mismos que ASCII, para facilitar el cambio.
En 1996, expandieron Unicode a más de un millón de espacios, ¡suficiente para todos!