Fue, originalmente, la ciencia del gobierno y control de los sistemas biológicos o mecánicos cuyas partes interactúan y operan con efectos recíprocos. Su nombre viene del griego kubernés, que significa “navegante” o “timonel”. La palabra fue escogida en 1947 por el matemático norteamericano Nobert Wiener (1894-1964), en su libro “Cybernetics”, para denominar no a una ciencia existente sino a un proyecto de ciencia futura que se encargaría de estudiar los procesos de transformación de un estímulo exterior en información (entrada) y la reacción del sistema electrónico mediante una respuesta (salida), basados en el método denominado feed-back o de realimentación.
Después la cibernética se refirió específicamente al gobierno y operación de los sofisticados sistemas que produjo la segunda revolución industrial —la revolución electrónica— y a su fascinante mundo de los ordenadores, los microprocesadores, la informática, los teléfonos celulares y los robots, que constituyen la clave del proceso de producción contemporáneo.
Desde tiempos inmemoriales el ser humano trató de hacer cálculos aritméticos y llevar sus cuentas, para lo cual recurrió a diversos utensilios fabricados por sus manos. Uno de los más antiguos fue el ábaco, utilizado originalmente en la cultura babilónica cuatro siglos antes de la era cristiana, que consistía en un cuadro de madera cruzado por diez cuerdas paralelas que ensartaban pequeñas bolas móviles, con las que se hacían las operaciones aritméticas elementales. En el año 1623 el científico alemán Wilhelm Schickard inventó la primera calculadora manual, que era una maquinilla de ruedas dentadas, a la que el autor denominó “reloj de calcular”. El filósofo y matemático francés Blaise Pascal, utilizando técnicas de relojería, confeccionó en el año 1642 el primer dispositivo mecánico para hacer cálculos. El aparato recibió el nombre de «pascaline». En 1672 el matemático alemán Gottfried Wilhelm Leibniz inventó una máquina de calcular capaz de multiplicar, dividir y extraer la raíz cuadrada. Se considera a Leibniz uno de los padres del cálculo automático.
Para formular los censos de población y los inventarios de las tropas, los abastecimientos y otros datos de su gigantesco imperio los incas crearon los quipus (que en la lengua quichua significa “nudos”), que eran ramales de cuerdas anudadas de colores varios con las cuales llevaban sus cuentas públicas y privadas con arreglo a un sistema codificado.
El francés Léon Bollée confeccionó en 1889 una maquinilla muy ingeniosa que era capaz de extraer la raíz cuadrada de un número de 18 dígitos en treinta segundos, con sólo dar vueltas a la manivela y mover ciertos botones.
En 1822 apareció el primer aparato de calcular producido industrialmente: el denominado “arrítmómetro” de Colmar, con rodillos y engranajes accionados por una manivela. Las ruedecillas del aparato iban articuladas, mediante piñones cónicos, a discos que llevaban marcadas las cifras del “0” al “9”. Esta maquinilla, cuya tecnología estuvo basada en el cilindro de Leibniz, se convirtió en la “madre” de todas las máquinas calculadoras que vinieron después.
Charles Babbage, matemático inglés, construyó en 1831 su “máquina analítica” capaz de realizar varias operaciones matemáticas automáticamente, a diferencia de sus antecesoras que requerían la continua intervención humana. El aparato tenía cuatro elementos: la memoria, que almacenaba datos y resultados; la unidad aritmética, que realizaba los cálculos matemáticos; un sistema de palancas y engranajes, que transfería la información de la memoria a la unidad aritmética; y un dispositivo que presentaba los resultados.
Sesenta años más tarde, el norteamericano Herman Hollerit, abocado a realizar el censo de población de Estados Unidos, dio un gran paso adelante con el diseño de una máquina calculadora cuya información, alimentada mediante tarjetas perforadas, era leída electrónicamente. En 1896 fundó la empresa Tabulating Machine Company, que se encargó fabricar y distribuir su exitoso prototipo, y en 1924 creó la International Business Machines (IBM), que se volvió célebre en el campo de la cibernética.
Generalmente se suele atribuir al matemático norteamericano Howard Aiken (1900-1973) la invención del ordenador. El canadiense Frank Koelsch, en su libro “The Informedia Revolution" (1995), afirma que el nacimiento de las máquinas pensantes se debe a Aiken, que terminó en 1943 la construcción a mano de su Mark I, una gigantesca máquina de cerca de quince metros de largo por dos y medio de altura. Un verdadero dinosaurio electrónico formado por alrededor de 750.000 piezas conectadas por 300 kilómetros de cables y controladas por 3.300 interruptores electromecánicos. El Mark I podía realizar las cuatro operaciones fundamentales: sumar, restar, multiplicar y dividir. Se demoraba varios segundos para cada una de ellas.
Sin embargo, hay quienes sostienen que el invento del ordenador se debe al profesor de la Universidad de Iowa John V. Atanasoff, quien terminó la construcción de su primer prototipo en 1939 con la ayuda de su alumno Clifford Berry. En 1941 recibió la visita del profesor John Mauchly de la Universidad de Pennsylvania para conocer su invento. Dos años después el ejército de Estados Unidos encargó a los profesores Mauchly y Eckert la construcción de un ordenador que fuera más rápido que el Mark I.
Se abrió entonces una gran polémica en torno a la paternidad del ordenador. Hubo largos y encendidos litigios judiciales. Fue célebre el que se trabó entre Honeywell y Sperry Rand, fabricantes de ordenadores, en torno a los derechos de autor comprados a Mauchly y Eckert.
Por los años 40 se construyó la máquina denominada ENIAC (Electronic Numerical Integrator and Calculator), que fue la primera en ser susceptible de programación. Medía 25 metros de largo por 2,50 de alto, pesaba 30 toneladas, tenía 18 mil válvulas, 70 resistores y 500 mil conexiones con soldadura. Consumía un volumen gigantesco de electricidad.
Mauchly y Eckert terminaron en 1951 su primer ordenador de uso comercial, denominado UNIVAC (Universal Automatic Computer), cuyo rendimiento se probó poco tiempo antes en el censo de 1950 en Estados Unidos. Este aparato todavía usaba válvulas (a pesar de que el transistor se había inventado poco tiempo antes) y contaba ya con grabadoras de cinta magnética e impresoras que daban a conocer los resultados de sus operaciones.
Empezó entonces el desarrollo tecnológico de las “máquinas pensantes” y, junto a él, la lucha de las empresas fabricantes —en ese tiempo la IBM y la UNIVAC— por la conquista de los mercados.
Se pueden usar indistintamente los términos computador u ordenador para designar a esos aparatos. El primero viene del inglés computer y el segundo del francés ordinateur. Este último término fue sugerido a la IBM por el profesor Jacques Perret (1906-1992) de la Sorbona para dar un nombre francés a sus aparatos.
Se distinguen dos elementos en la cibernética: el hardware, que es la parte física de los sistemas (la unidad central, el teclado, el monitor, la pantalla, la impresora, las líneas de energía, los circuitos microelectrónicos, los discos magnéticos, etc.), vale decir el “conjunto de fierros” que lo componen; y el software, que son los programas operativos para que el equipo pueda trabajar. Sin ellos el hardware sería un cuerpo inerte. Es el software el que se encarga de establecer las vinculaciones lógicas e intangibles entre los diversos elementos del ordenador. Los programas se almacenan previamente en su memoria interna y desde ese momento el aparato está listo para recibir las instrucciones que se le dan y para ejecutar su secuencia algorítmica.
La cibernética forma parte de la segunda >revolución industrial —la revolución electrónica— que se propone sustituir el esfuerzo intelectual del hombre por sofisticados aparatos que “piensan” por él, del mismo modo que la primera revolución industrial del siglo XIX puso a trabajar a las grandes máquinas —la locomotora a vapor, los motores industriales, los barcos y otros artefactos mecánicos— para reemplazar su esfuerzo muscular y físico.
El desarrollo de los ordenadores —desde la primera hasta la quinta generación— dio un impulso extraordinario a la informática y revolucionó los sistemas productivos. Esa revolución se aceleró a partir de la invención del transistor en 1947 por el matemático William Schockley de la empresa norteamericana Bell, que reemplazó a las válvulas de vacío anteriores y dio lugar a una generación de ordenadores más rápidos, más potentes, más eficientes y más pequeños.
Los ordenadores originarios eran aparatos muy grandes, que ocupaban salas enteras. Hoy se han miniaturizado hasta extremos impresionantes. Para tener una idea de cuánto han evolucionado resulta muy ilustrativa la explicación que hace Christopher Evans (1931-1979) en su obra "Les Géants Minuscules" (1979). Dice el científico inglés que el cerebro humano tiene aproximadamente 10.000 millones de minúsculas unidades binarias, llamadas neuronas. Si a alguien se le hubiera ocurrido construir un ordenador durante la década de los cincuenta —ordenador de la primera generación— que tuviera la misma capacidad del cerebro humano, hubiera tenido que montar un aparato del tamaño de la ciudad de París y para ponerlo en funcionamiento habría requerido toda la energía eléctrica de la red del metro. Con los transistores de los años sesenta, un ordenador de igual capacidad hubiera tenido el volumen del Teatro de la Opera de París y hubiera podido funcionar con un generador de diez kilovatios. El mismo ordenador hubiera sido del tamaño de un autobús y habría podido ser conectado a la red eléctrica ordinaria, con el circuito integrado y la tecnología disponibles de los años sesenta. Y, a partir de 1980 —concluye Evans—, un ordenador de igual potencia alcanzaría el tamaño del cerebro humano pero se iría reduciendo incesantemente, como en efecto ha ocurrido, en el sorprendente proceso de miniaturización de la tecnología electrónica que vino después.
El extraordinario esfuerzo hecho por Estados Unidos y Japón en los últimos años para crear los ordenadores de la quinta generación está encaminado precisamente a lograr que en el menor tamaño posible pueda almacenarse el mayor volumen de información para ser procesada a la mayor velocidad.
En esta dirección, el gobierno japonés puso en marcha su programa de investigación civil encomendado al Institute for New Generation Computer Technology, conocido como ICOT, y los norteamericanos, por su lado, impulsaron el programa estratégico de computación de la Defense Advanced Research Projects Agency (DARPA), que fue el instituto originalmente creado en 1958 bajo el impacto de la humillación que les produjo el lanzamiento por los soviéticos del primer hombre hacia el espacio. Trabada así la competencia entre las dos grandes potencias de la cibernética, el Japón ha anunciado ya el comienzo de sus investigaciones para producir los ordenadores de la “sexta generación”, con 200.000 millones de yenes de presupuesto, antes incluso de que hayan culminado los trabajos de la anterior generación.
Aunque no hay unidad de criterio respecto de las diversas y sucesivas “generaciones” de ordenadores, generalmente se considera que las primigenias computadoras de los años 50 del siglo XX, que utilizaban tubos al vacío y que operaban con tarjetas perforadas para alimentar datos y programas, fueron las de la primera generación. Eran máquinas de enorme tamaño y de altísmo consumo de energía. El invento del transistor, en sustitución de los tubos al vacío, produjo los ordenadores de la segunda generación. Los de la tercera generación fueron los que incorporaron a pequeña escala los circuitos integrados o chips; y los de la cuarta generación, que aparecieron en los años 70, introdujeron circuitos integrados de gran escala (LSI) y de alta densidad, capaces de operar a velocidades impresionantes. Fue la época de nacimiento de los computadores personales (PC). Hoy las grandes empresas de computación trabajan con los software de la quinta generación, capaces de tomar decisiones y de razonar para encontrar soluciones a problemas, aprender de sus propias experiencias, manejar el lenguaje natural, entender las palabras escritas y habladas, traducir automáticamente de una lengua natural a otra, utilizar técnicas de >inteligencia artificial. En resumen: emular el cerebro humano.
Esto ha planteado una cerrada competencia entre las grandes empresas de computación, especialmente entre las japonesas y las norteamericanas, con el respaldo determinante de sus respectivos gobiernos.
En el año 2005 la empresa International Business Machines (IBM) de Estados Unidos construyó el supercomputador más poderoso y rápido de la historia hasta ese momento: el Blue Gene/L, capaz de realizar 200 trillones de operaciones en un segundo. El aparato tenía treinta y dos mil microprocesadores pero consumía quince veces menos energía y era entre cincuenta y cien veces más pequeño que las más rápidas supercomputadoras de su tiempo. Su potencia era dos millones de veces mayor que la de los ordenadores portátiles —los desktop— de aquellos años. Fue destinado al Departamento de Energía del gobierno norteamericano.
Tres años más tarde, la misma IBM, duplicando el récord de velocidad establecido por su Blue Gene/L, construyó en el Laboratorio Nacional de Los Álamos el ordenador más potente y rápido del mundo en ese momento: el Roadrunner, que alcanzó la velocidad de 1,7 petaflops, es decir, más de 1.000 trillones de operaciones por segundo. El flop, como medida de velocidad en el mundo de la informática, es el acrónimo de floating-point operations per second. En consecuencia, el petaflop es mil trillones de operaciones por segundo.
Para tener una idea de lo que esto significa se podría decir que los 6.890 millones de personas del planeta, con una calculadora electrónica casera cada una, demorarían 46 años de trabajo ininterrumpido para completar el cúmulo de cálculos que el nuevo computador hace en un solo día.
El supercomputador militar Roadrunner fue destinado también a cuidar la seguridad de las instalaciones y los arsenales nucleares norteamericanos en el desierto de Nuevo México, pero además se ocupa de las áreas científicas de la astronomía, la genómica y el cambio climático.
La cibernética ha sido capaz de crear la llamada >realidad virtual que consiste en la generación de un ambiente interactivo tridimensional con base en el empleo de medios electrónicos muy sofisticados, a la que puede penetrar el hombre con la ayuda de lentes estereoscópicos y otros equipos. La realidad virtual es la creación de una realidad que no existe o la simulación perfecta de una realidad existente, en la cual el hombre escoge el papel en que quiere actuar. Puede servir para el entrenamiento humano en muchas actividades científicas y técnicas. De hecho ha servido para usos militares y de astronáutica. Mediante este sistema se preparó en 1995 a los astronautas norteamericanos para que reparasen en el espacio el telescopio Hubble. Las “caminatas” espaciales que ellos hicieron bajo condiciones simuladas de gravedad virtual cero, en los edificios del Centro Espacial Johnson, les permitieron adiestrarse bien para el trabajo que luego debieron cumplir en el espacio. Hoy la técnica de la realidad virtual se está desarrollando en el campo de la medicina para capacitar a los médicos en las operaciones más difíciles. Los cirujanos pueden aprender y practicar nuevas técnicas actuando con sustitutos virtuales de sus pacientes. Así el costo del aprendizaje ahorra vidas humanas. La llamada “clínica virtual” puede reproducir exactamente las condiciones en que el cirujano tendrá que desenvolverse en la vida real. El sistema le ofrece un modelo físicamente preciso de la anatomía humana, con tejidos y órganos que reaccionarían exactamente igual a los naturales durante un proceso quirúrgico. La realidad virtual abre horizontes impredecibles a la medicina y a muchas otras ciencias.
La informática, por su lado, ha creado en el mundo de las comunicaciones internet, que es una red planetaria que interconecta millones de computadoras, de modo que a través de ellas pueden las personas “conversar” entre sí por medio de sus pantallas, intercambiar información, enviar y recibir correspondencia y hacer negocios a distancia. Pueden también acudir a las más importantes bibliotecas, centros de datos, archivos y museos del mundo para acopiar información acerca de un número inimaginable de temas. La suma de los conocimientos humanos acumulados a lo largo de la historia está a disposición, en cualquier parte del mundo, de quienes quieran consultarlos por medio de >internet, que es así la más grande enciclopedia de todos los tiempos, con más de ochocientos millones de páginas que esperan que alguien las abra.
Para servir a los fines de la >informática se ha desarrollado a partir de 1977 la llamada fibra óptica, que es un cable de vidrio más fino que un cabello, través del cual se puede transmitir información por medio de señales de luz. Está hecho de cristal de cuarzo de alta pureza. Tiene la ventaja de que no es de metal sino de vidrio y de que utiliza luz y no electricidad para sus transmisiones. En este sentido es mucho más eficiente, rápido y seguro que los cables de cobre como conductor de señales de información.
En 1955 el científico hindú Narinder Kapany descubrió que una fibra de vidrio rodeada de un revestimiento era capaz de conducir la luz a grandes distancias con una mínima pérdida de intensidad. Sus investigaciones científicas tuvieron como antecedentes las hipótesis de Albert Einstein en 1916 sobre los principios del rayo láser y más tarde los trabajos del ingeniero físico californiano Theodore H. Maiman (1927-2007), quien desarrolló en 1960 el primer rayo láser utilizable. En 1977 la compañía norteamericana AT&T tendió bajo las calles de Chicago el primer cable de fibra óptica. Y a partir de ese momento se ha producido un proceso de sustitución del cable de cobre por el de fibra óptica, que resulta mucho más eficiente porque sus transmisiones son inmensamente más rápidas (la fibra óptica es 64.722 veces más rápida que el teléfono convencional servido por cables de cobre), ocupa menos espacio físico (miles de cables de cobre pueden ser sustituidos por uno solo de fibra), su señal es mucho más clara porque no le afectan las interferencias eléctricas y no se puede interceptar.
En los últimos veinte años los científicos han producido cinco “generaciones” de fibra óptica, cada vez más eficientes. Las fibras de la quinta generación están fortalecidas por la impregnación de erbio (un metal raro que se potencia con la radiación de un diodo de láser) que amplifica enormemente la señal de luz. Miles de millones de bits de información pueden ser transmitidos en una fracción se segundo a enormes distancias a través de los cables de fibra óptica de la quinta generación.
Con el desarrollo de la fibra óptica y del asynchronous transfer mode (ATM), que es un sistema que permite enviar grandes volúmenes de información a muy altas velocidades, la informática ha dado pasos de gigante en los últimos años.
La invención de la fibra óptica está llamada a tener importantísimas repercusiones en el campo de la información. La fibra óptica es un cable de cristal de cuarzo (sílice fundido) de alta pureza, cuyo diámetro es más fino que un cabello, diseñado para transmitir la luz a grandes distancias y con extraordinarias velocidades. Está destinado a sustituir a los cables de cobre en su función de transportar información, con la ventaja de que, como no es metálico sino de vidrio y no utiliza electricidad sino la luz, tiene muchísima mayor velocidad, eficiencia y seguridad. Para dar una idea de lo que esto significa me remito a la información que trae el economista español José B. Terceiro en su libro “Sociedad Digital” (1996): mientras un teléfono convencional dotado de cable de cobre demoraría casi seis días para transmitir 2,4 kilobits, la fibra óptica para transmitir 466 megabits (o sea 466.000 kilobits) apenas necesitaría tres segundos. La diferencia es monstruosa. Incalculable. El cable de fibra óptica puede transportar nada menos que 64.722 veces más rápido que el teléfono convencional. Por eso es que la invención de la fibra óptica representó una revolución en el sistema de las comunicaciones.
Y los teléfonos celulares inteligentes, convertidos en pequeñas computadoras ambulantes, forman parte importantísima de la revolución digital puesto que promueven la difusión inmediata de los conocimientos y la instantánea comunicación de los seres humanos a través del planeta. Científicos sostienen que este es el fenómeno tecnológico que se ha perfeccionado y crecido a la mayor velocidad en la historia. En apenas tres décadas se fabricaron y vendieron varios miles de millones de estos artefactos. Y en el año 2016 había en el mundo 7.834 millones de telefónos móviles mientras que la población mundial, según la Oficina de Censos de Estados Unidos, llegaba a 7.330 millones de seres humanos. De modo que en ese momento había 504 millones de teléfonos móviles más que habitantes en el planeta.
Lo cual, sin embargo, no significaba que cada persona tuviera un teléfono celular. Según la Unión Internacional de Telecomunicaciones (UIT) —organismo especializado de las Naciones Unidas, con sede en Ginebra— en el año 2015 unos 350 millones de personas en el mundo subdesarrollado vivían en lugares carentes de cobertura de una red móvil y estaban fuera de conexión telefónica celular.
La transmisión de las informaciones a alta velocidad por medio de impulsos de rayos láser a través de cables de fibra óptica —la llamada fotónica— será la tecnología del futuro en el campo de las comunicaciones. A diferencia de la conducción por cables de cobre, la fotónica podrá llevar una señal óptica sin necesidad de convertirla en eléctrica hasta su destinatario final.
Las empresas AT&T Bell y Kokusai Denshin Denwa se proponen usar la nueva tecnología en el tendido de un cable de fibra óptica a través del Océano Pacífico con una capacidad de transmisión de 500 mil llamadas telefónicas simultáneas, que representa doce veces más que la capacidad de los actuales cables transoceánicos de cobre.
La capacidad de la fibra óptica para transportar información es prácticamente “infinita”. Hasta el punto que la ciencia no ha podido establecer con precisión hasta hoy cuántos bits por segundo (bps) pueden ser enviados a través de ella. Recientes investigaciones han llegado a la conclusión de que la cifra se acerca a los 1.000 billones de bits por segundo. Lo cual permitiría, por ejemplo, enviar información a un millón de canales de televisión simultáneamente. Y esto únicamente a través de un solo cable de fibra óptica, de los muchos que pueden instalarse.
En la era digital la información se difunde por medio de bits y no de papel impreso. El bit —acrónimo de la expresión inglesa binary digit— es el elemento básico de la computación digital. Sirve también como unidad de medida de la capacidad de memoria de los computadores. El bit no tiene color, ni tamaño, ni peso y puede viajar a la velocidad de la luz. Como otras energías puras —por ejemplo: la electricidad o los rayos de luz— no tiene masa ni ocupa un lugar en el espacio.
El profesor norteamericano Nicholas P. Negroponte afirma en su libro “Being Digital” (1996) que para entender el mundo digital es menester hacer la diferencia entre átomo y bit. El átomo es la partícula más pequeña de un cuerpo simple. El bit, en cambio, es el elemento básico de la computación digital. No tiene solidez, no es tangible: es una energía. Una de sus características fundamentales, al decir del profesor del Massachusetts Institute of Technology (MIT), es que el bit es un “estado”, una “forma de ser”. Afirma, por eso, que el bit puede ser “on” or “off”, “true” or “false”, “up” or “down”, “in“ or “out”, “black” or ”white”. Y, a diferencia del átomo, no tiene transiciones: pasa de un estado a otro automáticamente y sin escalas intermedias. En el sistema binario al que obedece el bit es “1” o “0”. En la representación binaria sólo se toman en cuenta estos dos dígitos. Por consiguiente, la representación para los números 1, 2, 3, 4, 5, 6, 7, 8, 9, etc. es en ella 1, 10, 11, 100, 101, 110, 111, 1000, 1001 y así sucesivamente.
El profesor Negroponte dice con razón que la mayor parte de la información la recibimos en forma de átomos, esto es, de periódicos, libros, revistas y demás materiales impresos, mientras que hacia el futuro, en la era digital, la recibiremos por medio de bits que la transportarán de su lugar de origen hasta las pantallas electrónicas a la velocidad de la luz. Para lo cual será necesario digitar y reducir a “lenguaje binario” todos los tipos de información: letras, dibujos, planos, números, signos, voces, sonidos, vídeo.
Al igual que los átomos, que son tan pequeños y están tan apretujados entre sí que no obstante ser partículas discretas dan a los cuerpos que integran la apariencia de concretos, la supercompresión de los bits hace que la imagen o la voz parezcan absolutamente continuas. El más pulido metal es, visto microscópicamente, un cuerpo lleno de huecos y vacíos, pero por el trabamiento de los átomos da la apariencia de cosa totalmente sólida y concreta. Lo mismo pasa con el sonido, la imagen o el movimiento digitales: la congestión de los bits es tal que aquéllos parecen continuos. Estamos hablando de 1,2 millones de bits por segundo para transmitir la música de alta fidelidad o de 45 millones de bits por segundo para formar la imagen.
Estos son los prodigios de la tecnología digital.
Negroponte, en una conferencia que dictó en Colombia en 1997, habló del revolucionario proyecto del Massachusetts Institute of Technology (MIT) de crear el llamado “papel electrónico”, o sea la prensa digital capaz de ofrecer información según los impulsos que reciban sus circuitos electrónicos. Y en su mencionado libro "Being Digital", refiriéndose a la superación de las publicaciones en papel, sostuvo que hemos entrado en la "era de la postinformación" y afirmó que, en función de los servicios de internet, "cada individuo está en casa y de viaje al mismo tiempo" puesto que desde su hogar recorre, visita, conoce, mira y oye el mundo hasta en sus más pequeños detalles.
Sin embargo y a pesar de todos sus prodigios, la cibernética o, por mejor decir, quienes la manejan con criterios comerciales, serán culpables del nuevo proceso de disparidad social que se ve en el horizonte, puesto que al incorporar a las nuevas estructuras productivas solamente a los individuos y grupos especialmente preparados para este tipo de racionalidad, marginarán a todos los que no tengan condiciones para adaptarse a la economía digital y para manejar las nuevas tecnologías.
Este no será, ciertamente, un fenómeno nuevo. Ha ocurrido antes en la historia del desarrollo económico con el dominio del conocimiento y la modernización de las estructuras productivas. En el mundo antiguo la invención del pergamino y la articulación del alfabeto dieron poder a quienes sabían los secretos del lenguaje codificado y de la escritura. Durante la Edad Media el saber se enclaustró en los conventos y el clero fue uno de los grupos dominantes, que reclamó la obediencia de los súbditos por medios coercitivos espirituales y físicos. El uso del papel y de la prensa condujo a la Reforma Protestante y después a los grandes logros del Renacimiento. El invento de la máquina originó la primera Revolución Industrial, que fue luego enriquecida por la electricidad, el telégrafo y el teléfono. Las investigaciones de Silicon Valley —ese punto mágico situado al sur de San Francisco de California donde se congregaron a partir de 1956 jóvenes científicos del mundo para desentrañar los misterios de la microelectrónica— llevaron a la revolución digital de nuestros días. Siempre fue el dominio del conocimiento el factor que impulsó la historia. Pero el problema que hoy vemos en el horizonte es la erección de una frontera digital que separará a los seres humanos y a los países en función de su acceso al moderno conocimiento científico y tecnológico. Las cosas serán mucho más dramáticas que en el pasado dado que por la propia naturaleza del conocimiento informático sólo será una pequeña minoría la que tenga acceso a él y disponga de la preparación tecnológica suficiente para poder insertarse en los sistemas productivos modernos. Estoy hablando de una pequeña elite. El resto de la sociedad quedará al margen del conocimiento, la participación y los ingresos principales de los futuros modos de producción.
Para contrarrestar esta tendencia concentradora y excluyente del saber informático, el profesor norteamericano Nicholas P. Negroponte del Instituto Tecnológico de Massachussetts (MIT) planteó ante el Foro Económico Mundial de Davos, en Suiza, la inclusión digital para expandir el conocimiento de esta rama tecnológica entre los pueblos del mundo subdesarrollado. En diciembre del 2006 el profesor norteamericano presentó allí el proyecto denominado one laptop per child (un ordenador portátil por niño) con el propósito de disminuir la brecha digital que separa a los países desarrollados de los subdesarrollados. Un año después, superados los problemas tecnológicos, el prototipo 2B1 del ordenador portátil barato quedó listo. Su fabricación en serie se encargó a la empresa Quanta Computer Inc. de Taiwán. Era un reto sin precedentes: fabricar y distribuir ordenadores portátiles, conectados con internet, a precio muy bajo —algo más de cien dólares cada uno— para que se convirtieran en poderosas herramientas de educación en los países del mundo en subdesarrollo. Sus primeros destinos fueron Brasil, China, India, Argentina, Egipto, Nigeria y Tailandia.
Cuatro fueron las características del hardware del prototipo 2B1: pantalla TFT de 7,5 pulgadas, con una resolución de 1.200 x 900 píxeles; router inalámbrico que multiplica las posibilidades de conexión con internet; bajo consumo de energía; y posibilidad de recargar su batería manualmente para que pueda funcionar en lugares donde no haya electricidad. Y, en cuanto a su software, el pequeño ordenador opera por medio de una versión reducida del “Linux Fedora” y una interfaz diseñada especialmente para tareas educativas. Cuenta con un procesador AMD Geode de 400 MHz. Tiene 128 Mb de memoria RAM y 512 Mb de memoria flash, tres puertos USB, ranura para tarjetas SD, micrófono y altavoces integrados y un “jack” para conectar diversos aparatos. Su teclado, adaptado al idioma de cada país, permitirá escribir y dibujar.
Las Naciones Unidas han trabajado también en proyectos para disminuir la brecha digital. El 20 de junio del 2006, en la ciudad de Kuala Lumpur, Malasia, lanzaron la Alianza Global para las Tecnologías de la Información para el Desarrollo. Crearon, para que la dirigiera, un Consejo Estratégico adscrito a su Secretaría General, integrado por cincuenta miembros que representan a gobiernos, comunidades académicas y científicas, sectores privados, medios de comunicación social y organizaciones no gubernamentales (ONG), a fin de impulsar un esfuerzo internacional mancomunado que amplíe y profundice el uso de estas tecnologías en la lucha global contra la pobreza. La idea es que los países pobres y atrasados participen de los beneficios de las nuevas tecnologías y que, dentro de ellos, esas tecnologías estén efectivamente disponibles para toda la población. Se trata, por tanto, de democratizar los nuevos recursos tecnológicos y ponerlos al servicio del interés general. Para dar seguimiento a la iniciativa de Kuala Lumpur vino luego una segunda reunión en Nueva York el 27 de septiembre del mismo año, patrocinada por la Organización Mundial, en la que el Secretario General de las Naciones Unidas Kofi Annan abogó por “una verdadera sociedad global de la información”.