Introducción. Breve Historia de Internet y sistemas operativos.

Juan-Cruz Rada Pérez · COP La Rioja

Dani, después de un tiempo trabajando con un equipo informático heredado, un smartphone anticuado y una tablet obsoleta, quiere cambiarlos y adquirir algo que le sirva para sus nuevos proyectos. Siente que el mundo de la tecnología es muy confuso y demasiado amplio, pero le encantaría saber cuál ha sido su desarrollo y cómo se ha llegado al momento actual, le gusta conocer la historia y la evolución de aquello que utiliza, pues es la mejor manera de comprender y dar valor a lo que usamos.

Comprender cómo hemos alcanzado los avances tecnológicos que disfrutamos, nos exige conocer un poco la historia de computación, como los primeros pasos hacia lo que hoy conocemos como informática, y por extensión Internet y la Inteligencia Artificial.

La informática es una disciplina científica y técnica que se encarga de la adquisición, procesamiento, almacenamiento, transmisión y difusión de información. Se ha desarrollado a lo largo de varios siglos y ha tenido un impacto significativo en la sociedad moderna, cambiando la forma en que hacemos negocios, nos comunicamos y nos entendemos.

Si entendemos la computación como el estudio y desarrollo de sistemas con capacidad para resolver problemas, o realizar operaciones complejas de manera automática, podemos remontarnos al siglo XVII para vislumbrar los primeros intentos de desarrollar una protocomputación con los logaritmos de John Napier, y sus máquinas calculadoras, mejoradas a lo largo de los siglos posteriores por diferentes matemáticos, y que llegaba a realizar multiplicaciones y divisiones. Ya en el Siglo XVIII se diseñó la primera máquina lógica, capaz de hacer cálculos probabilísticos y resolver silogismos sencillos. En el Siglo XIX, Joseph Marie Jacquard diseña un sistema con tarjetas perforadas para modificar los dibujos resultantes de las máquinas de tejer, revolucionando la industria textil y poniendo la base para futuros lenguajes de programación. Unos años más tarde, Charles Babbage diseña lo que denominó como máquina analítica para hacer cálculos, y comparte el reconocimiento de lo que son las primeras notas que pueden considerarse como programación de una máquina junto con Ada Lovelace, quizás la primera visionaria de las posibilidades prácticas de la programación como instrumento de creación de gráficos o de melodías musicales, más allá del cálculo aritmético. A finales del siglo XIX y principios del Siglo XX se desarrollan multitud de ingenios para aplicarlos a sistemas de cálculo, de censos, y se vislumbra el primer lenguaje binario, esto favorece un rápido crecimiento y expansión, con la aparición de las primeras computadoras en los años treinta, y de las primeras compañías: laboratorios Bell y Hewlett-Packard.

Aun así, es generalmente aceptado, que la informática surge en el Siglo XX, durante la 2º Guerra Mundial, gracias entre otros muchos a avances como los del matemático británico Alan Touring en el campo de los algoritmos, decisivo para programar las computadoras. Hay que tener en cuenta que la evolución de la informática está unida al avance de otras disciplinas, con la aparición de las primeras computadoras de tubos de vacío, que fundamentalmente eran máquinas de cálculo, para posteriormente usar de válvulas y cilindros magnéticos, grandes, lentas y muy limitadas desde nuestro actual punto de vista. Es en los años 50 cuando aparecen los transistores, usando semiconductores, que solucionaron el problema del tamaño y la velocidad, y que son capaces de reproducir un proceso lógico. Poco después surgen los microcircuitos integrados y ya en los años 70 aparecen los microprocesadores y los ordenadores personales, cada vez más pequeños y más capaces, aparecen las redes compartidas y los procesos interactivos. Es partir de los años 80 cuando el hardware y el software empiezan una constante evolución, con velocidades de procesamiento cada vez mayores, capacidad de memoria incrementándose de manera exponencial, desarrollo de aplicaciones y programas que favorecen el avance de la Inteligencia Artificial, la Realidad Virtual y la Realidad Aumentada.

A lo largo de estos años se han desarrollado los diferentes lenguajes de programación (COBOL, ALGOL, BASIC, UNIX, Java, Python,…), las características del hardware también han tenido una evolución constante, habitualmente por las exigencias del software, pero sobre todo, por una continua búsqueda de la mejora que hizo que en 1965 se publicará la Ley de Moore, una teoría que pronosticaba que cada dos años se duplicaría el número de transistores en cada circuito integrado, lo que supone un crecimiento exponencial en prestaciones, lo que sin ser más que una observación se ha popularizado por la velocidad en la mejora permanente del hardware.

Es una carrera en la que se produce la simbiosis de múltiples tecnologías, que ha llevado a una nueva cultura, llamada de las Smart Things, al vincularse todos nuestros aparatos electrónicos, desde la lavadora y la calefacción al teléfono y la televisión, en una comunicación permanente gracias a la red, y que nos lleva a estar siempre en conexión y monitorización de manera virtual. También estamos a las puertas de una nueva evolución con los computadores cuánticos, el siguiente paso del Internet de las cosas, las redes comunicación inalámbricas de alta capacidad 6G o es posible que incluso de un universo nuevo, aunque sea virtual.

Breve Historia de Internet

Si bien hay una historia habitual de cómo se gestó Internet, los orígenes son el resultado de la investigación y las aportaciones de muchas personas, que, a partir de las necesidades técnicas, sociales y por supuesto políticas, desarrollaron una de las ideas más sorprendentes y con mayor capacidad de cambiar el mundo que se conocía anteriormente.

La historia de Internet comenzó en la década de 1960, cuando el Departamento de Defensa de los Estados Unidos creó una red de computadoras llamada ARPANET con el objetivo de permitir la comunicación entre investigadores en universidades y laboratorios de investigación. A lo largo de los años, la red creció y evolucionó hasta convertirse en la Internet que conocemos hoy en día, una red global de millones de computadoras y dispositivos conectados.

Mientras que las motivaciones de los orígenes de Internet fue la situación de Guerra Fría con la URRS, y el miedo a la destrucción de las comunicaciones en caso de conflicto nuclear, la mayoría de las investigaciones buscaban la posibilidad de conectar entre sí los ordenadores para optimizar su uso, compartir datos y recursos. También se buscaba resolver la compatibilidad entre los diferentes modelos de ordenadores, y dar cobertura a los posibles fallos de un ordenador que pudiese ser cubierto por los demás.

Las primeras ideas de lo que hoy conocemos como Internet se desarrollaron por investigadores como J.C.R. Licklider del MIT en 1962, y posterior responsable de DARPA (Agencia de Proyectos de Investigación de Defensa) que imaginó una “red galáctica” de computadoras interconexionadas y trabajando conjuntamente de manera que pudiesen compartir programas, datos y recursos desde cualquier sitio. Paralelamente Leonard Kleinrock publica su teoría de conmutación de paquetes para la trasmisión de datos, que mejora el sistema de conmutación de circuitos que se probó con éxito en 1965 en California en una primera red informática, y que otros grupos de investigación también estaban desarrollando y realizando propuestas que optimizaban los conmutadores de paquetes.

Entre 1966 y 1967 L.G. Roberts, sucesor de Licklider en DARPA, define su plan de ARPANET, que conjuntamente con las aportaciones de otras investigaciones del Laboratorio Nacional de Física de Reino Unido del equipo de R. Scantlebury y del grupo de Proyecto RAND de P. Baran, con los que no había existido comunicación hasta ese momento y seguían líneas de investigación similares, definieron la velocidad de línea telefónica necesaria en 50 kbps (kilobytes por segundo).

El primer esquema de ARPANET ocupa apenas un folio, pero la complejidad del desarrollo de esta primera red exigió diseñar y optimizar la topología y la economía de la red telefónica a usar, definir un directorio RFC (petición de comentarios) y un mapeo de direcciones, un sistema de hipertexto y elegir los nodos de conexión que finalmente se establecieron en la Universidad de UCLA, en la Universidad de Stanford, la Universidad de Utah, y el campus de Santa Bárbara.

Así en 1969 estas cuatro computadoras quedaron conectadas entre sí mediante un host propio, con un primer mensaje del profesor Kleinrock desde Stanford, que el 29 de octubre de 1969, mandó un breve mensaje a Stanford en el que ponía un breve “lo”, y que tras cerca de una hora consiguió llegar a su destino con un completo “loading”.

Muchos de estos protocolos siguen vigentes hoy en día, como el RFC, debe tenerse en cuenta que la investigación de redes incorporó tanto el trabajo en la red subyacente como el trabajo sobre cómo utilizar la red. Esta forma de trabajar e investigar continúa hasta nuestros días.

En 1970 finaliza el protocolo de ARPANET Host-to-Host, llamado Network Control Protocolo (NCP), con el que los usuarios y usuarias de la red pudieron empezar a desarrollar aplicaciones comunes.

En 1972 se presenta públicamente ARPANET al público y se lanza una aplicación de correo electrónico, que se convierte en la aplicación más exitosa durante una década.

A partir de este año ARPANET fue convirtiéndose en lo que hoy llamamos Internet, basándose en la idea de múltiples redes independientes. Bajo este enfoque cada red individual podía ser seleccionada libremente e interactuar con las otras redes gracias a una “arquitectura de interconexión”. Esto obligaba a modificar e incluir nuevos protocolos de comunicaciones, los conocidos como Protocolos de Control de Transmisión/Protocolo de Internet (TCP/IP), junto con nuevas reglas para un funcionamiento eficiente y seguro. Pero el crecimiento fue mayor de lo previsto y las direcciones IP de 32 bits pronto se mostraron como insuficientes a finales de los 70. A partir de este momento y con la investigación y desarrollo de empresas como IBM, Xerox, junto con el MIT y otras universidades se gestó la incipiente Internet.

En 1973 hay 23 computadoras conectadas en ARPANET.

Durante la década de los 80 se incrementó exponencialmente el número de estaciones de trabajo, sobre todo por la generalización de los PC (Personal Computer), convirtiéndose la Ethernet desarrollada por Xerox en 1973 en la tecnología de red dominante, y el despegue de lo que hoy conocemos como Internet. Este cambio de unas pocas redes a un enorme número de host, obliga a realizar cambios en la tecnología de redes para escalar y dar cabida a todas ellas.

De 1984 a 1989 se pasa de 1.000 computadoras conectadas a más de 100.000.

Aparece el Sistema de Nombres de Dominio (DNS) para facilitar el uso de la red, localizar los hosts en las búsquedas, que hasta ese momento eran numéricos asociados a nombres o direcciones.

En 1985, Internet ya es una tecnología establecida con una amplia comunidad gracias entre otras cosas al uso del correo electrónico.

En 1990, ARPANET es desmantelada, TCP/IP queda como la tecnología predominante y casi única de protocolo de redes informáticas en la infraestructura de las tecnologías de la información. El mismo año aparece el primer navegador web.

En 1993 en el CERN se presenta la World Wide Web de forma pública, que funciona mediante Internet para transmitir datos mediante el Protocolo de Transferencia de Hipertextos o HTTP, y que se ha convertido en el estándar de comunicación por Internet más utilizado a nivel mundial. Su uso a través de navegadores y aplicaciones ha facilitado la expansión y el uso de Internet a un mayor número de personas.

En 1995 se define Internet como un sistema de información global que está vinculado entre sí por un espacio de direcciones único a nivel mundial basado en el Protocolo de Internet (IP), y es capaz de soportar comunicaciones por medio del Protocolo de Control de Transmisión/Protocolo de Internet (TCP/IP), para que proporcione, utilice o haga accesibles, pública o privadamente, servicios de alto nivel en las comunicaciones.

Del millón de computadoras conectadas en 1992 se alcanzan los 10.000.000 de computadoras conectadas en 1996.

En 1998 surge el navegador más exitoso hasta la actualidad, GOOGLE, y en 2002 nace la Wikipedia, la experiencia online colaborativa más ambiciosa de la historia.

En 2004 nace Facebook, las redes sociales se popularizan.

2005 Internet alcanza los 1.000.000.000 de usuarios, 1 de cada 6 personas tiene una conexión a Internet.

En 2007 se popularizó la web móvil gracias a la aparición del Iphone entre otros smartphones.

En 2022 el número de usuarios de smartphones alcanza los 6.000.000.000 de personas conectadas, 33 millones en España.

La repercusión de estos cambios está siendo compleja, socialmente la aparición de la denominada brecha digital, o la admisión de unas competencias innatas por parte de los denominados nativos digitales están consiguiendo en ocasiones la exclusión y marginación de grupos sociales de la vida pública, económica y social, pero también generando pérdida del bienestar de las personas por los permanentes retos y, en demasiadas ocasiones, consecuencias negativas de la aplicación de las nuevas tecnologías que afectan a nuestra salud mental.

Sistemas operativos, PCs y smartphones


Hablar de sistemas operativos nos lleva en ocasiones a comprender que el sistema operativo está íntimamente ligado al hardware con el que vamos a trabajar, y cuales son nuestras necesidades. Aspectos que no siempre son decisiones simples, ni vamos a poder tomar por nosotros mismos. Por eso una buena recomendación es ser conscientes de que uso le vamos a dar a nuestros dispositivos, hacer una previsión lo más realista posible de lo que podemos necesitar también en el futuro, y a partir de ahí tomar decisiones tanto para el hardware como el software.
Vamos a definir primero los sistemas operativos más habituales para PCs y a partir de ellos vamos a tratar de explicar cuáles son sus ventajas e inconvenientes.

WINDOWS. Es el sistema operativo que llegó a usar cerca del 90% de los ordenadores personales del mundo, ahora esa proporción ha cambiado con el incremento del uso de Linux y de Chrome OS. Windows se puede considerar el sistema operativo estándar, es fácil de usar y configurar, viene preinstalado en muchos de los ordenadores personales de consumo, y prácticamente todos los programas que se comercializan tienen una versión para Windows.
Otra de sus fortalezas es que los programas de ofimática más populares y utilizados pertenecen al mismo ecosistema, por ser parte de la misma empresa, el gigante informático Microsoft. Quizás sus debilidades vengan por la fama de ser inestable y con frecuentes problemas de quedarse colgado si se es muy exigente con las demandas en ciertas actividades, y una cuestionable seguridad, que le hace ser vulnerable a la multitud de virus que aprovechan los fallos del sistema para infectar el sistema e infectar nuestro PC. En estas debilidades hay que considerar como factores que a veces no dependen solo del Sistema Operativo si no de las características del equipo que tengamos, su actualización y las exigencias a las que le llevemos o lo expongamos. Windows es el sistema operativo utilizado en más PCs, desde la gama más sencilla a los modelos con más prestaciones, y desde usuarios con mucho conocimiento a aquellos con menor nivel de conocimiento.

MacOS. El sistema Operativo de Apple es considerado como sencillo de utilizar, de estética muy cuidada y más innovador por muchos usuarios. Con cada actualización busca sorprender al usuario. Cuenta con una gran cantidad de aplicaciones y programas propios, también comparte la mayoría de los programas y aplicaciones desarrollados para Windows o Chrome. Entre sus fortalezas siempre se considera su seguridad y estabilidad, y en un plano más aplicado destaca en el retoque, la producción y edición de video, música o fotografía. Hay que tener en cuenta que este sistema operativo está específicamente diseñado y utilizado en los ordenadores de la propia compañía, que podemos considerar de gama media y alta, lo que exige un desembolso inicial más elevado. Apple también desarrolla su propio SO para móviles, el conocido como iOS, así como su SO para wearables WatchOS, con lo que consigue generar un ecosistema tecnológico propio, en el que convergen muchos de sus desarrollos, con algunas de las aplicaciones de mayor calidad, pero también las debilidades como los altos desembolsos como propietario y usuario que puede suponer, así como la dependencia de sus servicios en exclusiva.

LINUX. Es el sistema minoritario entre los tres grandes SO más conocidos. No tiene un enfoque comercial y es el preferido por muchos de los profesionales de la informática y de Internet. Ofrece potencia, estabilidad, flexibilidad, seguridad contra virus y sirve para realizar cualquier trabajo. Probablemente es el SO más utilizado por empresas tecnológicas y en servidores, incluso por empresas de software que aquí se nombran.
Linux es un sistema operativo libre y gratuito, pero es algo más difícil de usar, no suele venir preinstalado en el equipo y hay que decidir qué versión de Linux nos descargamos, siendo una de las más conocidas Ubuntu, además se necesitan conocimientos técnicos para realizar algunas tareas. Aun así, sus últimas versiones son bastante más amigables, por lo que ha empezado a calar entre algunos usuarios domésticos y profesionales La colección de programas disponibles en algunas áreas (como los juegos o las aplicaciones multimedia) es aún escasa o de poca calidad, aunque mejora día a día. A la hora de instalar nuevos periféricos, el proceso también se complica: mientras que en Windows y Mac OS es casi automático, en Linux suele ser necesario realizar alguna configuración manual.

Linux es un sistema que apuesta por el concepto de comunidad, pues ha sido desarrollado voluntariamente por programadores de todo el mundo. De ahí que sea libre (libertad total para ver y modificar las 'entrañas' del sistema) y gratuito (puede descargarse de Internet, copiarlo a un amigo o adquirirse en formato CD).

Chrome OS. Es el sistema operativo que más ha crecido en los últimos años, gracias a la aparición de los Chromebooks y a ser parte de la compañía Google. Está basado en el kernel de Linux con la interfaz de usuario de Android, el sistema operativo para aparatos móviles de Google mayoritario en el mercado de móviles, de manera que se hace familiar a la mayoría de los usuarios. Está diseñado para aquellos usuarios que necesitan poco más que navegar por Internet, y priorizan el coste bajo del equipo con una funcionalidad sencilla que depende en gran medida de herramientas como Google Drive o aplicaciones que descarguemos.

Android. Es el sistema operativo diseñado inicialmente por la empresa del mismo nombre y posteriormente adquirida por Google. El nombre es un homenaje a la película Blade Runner, o a la novela de Philip K. Dick en la que se basa. Es el SO presente en el 90% de los aparatos móviles, smartphones y tablets, y el que cuenta con mayor número de aplicaciones. Su uso está muy estandarizado, aunque al permitir las personalizaciones de la interfaz por las empresas que lo usan, a veces existe un abuso por parte de éstas de incluir software inutil para el usuario. Su otra crítica es el exceso de actualizaciones, que produce una elevada fragmentación y confusión en los usuarios, siendo una queja recurrente, por generar una obsolescencia excesiva en los dispositivos, así como una mayor inseguridad. Google también ha desarrollado el denominado WearOS para smartwatch y wearables, lo que genera su propio ecosistema tecnológico.

Vamos a considerar estos sistemas operativos como los más conocidos y habituales que nos podemos encontrar en el mercado, pero sin olvidar que existen muchas otras opciones, casi todas destinadas a usos profesionales o más específicos, o por motivos ajenos al desarrollo tecnológico como Harmony.

También están apareciendo sistemas operativos destinados a otros nuevos elementos, que pueden conectarse a Internet y formar parte de lo que denominamos Internet de las cosas.

Los sistemas operativos para computadoras incluyen Windows, MacOS y Linux. Windows es un sistema operativo desarrollado por Microsoft y es uno de los más populares en el mundo. MacOS es un sistema operativo exclusivo de Apple y se utiliza en su computadora Mac. Linux es un sistema operativo de código abierto que es muy popular entre los desarrolladores y los usuarios avanzados.

En cuanto a los relojes inteligentes, estos dispositivos generalmente funcionan con sistemas operativos móviles como WatchOS de Apple o WearOS de Google. Estos sistemas operativos están optimizados para funcionar en un entorno de reloj inteligente y ofrecen funciones como la capacidad de recibir notificaciones, controlar la música y realizar llamadas telefónicas.

Es posible que Dani aún tenga dudas, e incluso que lo tenga más complicado que nunca, pues probablemente no haya una opción perfecta, ni una incorrecta. El tomar conciencia de la existencia de “ecosistemas tecnológicos” puede ayudar si es algo que tenga importancia, o disponer de un criterio de complejidad o de posible inversión en adquisición y mantenimiento.


WEBGRAFÍA

www.xataka.com
www.es.gizmodo.com
www.hipertextual.com
www.internetsociety.org
www.theconversation.com
www.chat.openai.com