Capítulo Tres: Visionarios y Convergencias: La historia accidental de la red Un día de 1950 - mientras conducía hacia el trabajo - Douglas Engelbart empezó a dilucidar sobre lo complicada que se había vuelto la civilización. ¿Qué iban a hacer los humanos para gestionar este nuevo y complejo mundo que la tecnología nos había ayudado a crear? Engelbart se preguntó qué tipo de herramientas utilizaríamos para ayudarnos a pensar. "Símbolos" fue la respuesta que se le ocurrió (la respuesta que le habían enseñado como ingeniero). ¿Podríamos utilizar máquinas para ayudarnos a lidiar con los símbolos? ¿Por qué no las computadoras? ¿Podrían las computadoras automatizar las tareas de manejo simbólico y ayudar así a las personas a concebir más rápido y mejor los problemas más complejos? Siendo la persona adecuada, esa línea de pensamiento resultó inevitable, incluso en 1950. A Engelbart nunca dejó de sorprenderle nadie más lo haya percibido también. Engelbart, antiguo operador de radar durante la Segunda Guerra Mundial, empezó formarse una imagen en su mente, una especie de polaroid del futuro: "Cuando oí hablar por primera vez de las computadoras, entendí - por mi experiencia con los radares - que si estas máquinas podían presentar informes con tarjetas perforadas e impresiones en papel, podrían proyectar o trazar dicha información en una pantalla. Cuando vi la conexión entre una pantalla de tubo de rayos catódicos, un procesador de información central y un medio para representar simbología para una operadora, todo cayó en su lugar en aproximadamente media hora." Concibió grupos de personas en escritorios y en ambientes tipo amfiteatro, donde la gente podía controlar la computadora con apuntadores. Su imaginación volvió más vívida y detallada la escena. El conocimiento, la información y otras herramientas de pensamiento aún no elucubradas estarían disponibles con solo digitar un teclado o girar un dial. Con una configuración tal - soñó Engelbart - grupos de personas podrían ejercer un verdadero control para resolver problemas complejos. Cuando llegó al trabajo al final de ese viaje en diciembre de 1950, la lógica interna de Engelbart lo había llevado al dintel de una cruzada que duraría casi medio siglo. Para la década de 1990 - como resultado directo de esta cruzada de Engelbart - decenas de millones de personas en todo el mundo utilizaban ordenadores y telecomunicaciones para potenciar sus capacidades de pensar y comunicarse. Las máquina como amplificador de la mente es algo que hoy damos por sentado. El problema en la década de 1950 era lograr que alguien lo escuchara, alguien que pudiera darle acceso a una mainframe y algo de financiación para la investigación. Sus amigos le advirtieron que abrir mucho la boca sobre sus planes de ciencia ficción durante una entrevista de trabajo podría no ser bueno para su carrera de ingeniero eléctrico. Pasando de la academia a la industria privada y al espíritu empresarial, se pasó más de una década intentando convencer (sin éxito) a los científicos informáticos, psicólogos y bibliotecarios de que las máquinas podrían convertirse en asistentes maravillosas para la resolución de problemas de aquellas personas que obraban con la mente. En 1950 existían menos de una docena de computadores electrónicos. Los primeros "cerebros electrónicos" - como se les llamaba - eran tan grandes y generaban tanto calor que ocupaban almacenes con aire acondicionado enteros y - en términos de poder de cómputo - todos juntos no podían competir con el microchip más barato de un juguete actual de veinte dólares. A nadie se le ocurrió que serían necesarias muchas más computadoras o que deberían ser mucho más poderosas que aquellas para satisfacer las necesidades computacionales del mundo. Para 1960, la gente estaba convencida de que las computadoras eran herramientas útiles, y proliferaron dispositivos algo menos gigantescos y menos costosos, pero estrictamente instrumentación de alta tecnología para científicos o dispositivos de nómina para empresas. Fue el lanzamiento del primer satélite artificial soviético, el Sputnik de 1957, lo que cambió el paradigma de la financiación presupuestaria en Washington, D.C. Dos efectos secundarios directos de dicho cambio fueron la revolución de las computadoras personales y las comunicaciones mediadas por computadoras (CMC). En 1963, Engelbart recibió financiamiento para crear las máquinas pensantes con las que había soñado. Engelbart fue sólo el primero de un linaje de visionarios obstinados que insistieron en que las máquinas podrían ser utilizadas por personas distintas a los especialistas. Es poco probable que tuviéramos las máquinas y los sistemas CMC que tenemos hoy si no hubiese sido por estas pocas personas que se aferraron obstinadamente a su deseo de crear mejores herramientas de pensamiento, máquinas concebidas para que las use la Masa, para obrar en cosas que hace la Masa. Los elementos esenciales de lo que se convirtió en la Red fueron creados por personas que creían, querían y, por tanto, inventaron formas de utilizar las computadoras para amplificar el pensamiento y la comunicación humana. Y muchos de ellos querían ofrecérselo a las Masas, al menor coste posible. Impulsados por la emoción de crear su propia subcultura especial por debajo del radar de los medios de comunicación principales, trabajaron con lo que tenían a mano. Una y otra vez, las partes más importantes de la Red se aprovecharon de tecnologías que fueron creadas para propósitos muy diferentes. Las partes más importantes de la Red comenzaron como sueños en la imaginación de unas pocas personas específicas, que actuaban mas por inspiración más que siguiendo órdenes. Las redes informáticas comenzaron con un ex profesor del MIT que obraba en una pequeña oficina de financiación técnica en el Pentágono; la Usenet global fue creado por un par de estudiantes en Carolina del Norte que consideraron posibilitar que las comunidades informáticas se vincularan entre sí sin el beneficio de una costosa conexión a Internet; Los aficionados de Chicago desencadenaron el movimiento BBS mundial porque querían transferir archivos de una PC a otra sin tener que cruzar la ciudad. En las décadas de 1960 y 1970, la Agencia de Proyectos de Investigación Avanzada (ARPA) del Departamento de Defensa de Estados Unidos financió a un pequeño grupo de ingenieros electrónicos heterodoxos y programadores que querían modificar la manera en la que se operaban las máquinas. Con teclados, pantallas y gráficos, las Masas podrían interactuar directamente con las computadoras en lugar de obrar a través de la mediación arcana y lenta de tarjetas perforadas e impresiones. Estos jóvenes programadores sintieron que su virtuosismo requería un tipo de ordenador que podría ser ejecutado como un instrumento musical: en tiempo real. Llamaron a su cruzada "computación interactiva" y todavía hablan en términos de la "experiencia de conversión" que guió su investigación. Cuando los cruzados financiados por ARPA lograron diseñar las computadoras que querían, descubrieron que también querían usarlas como dispositivos de comunicación. Se necesitaron dos décadas adicionales de investigación y desarrollo para que las máquinas personales interactivas y las CMC maduraran, proliferaran y convergieran en una red cada vez más accesible para los ciudadanos de los años noventa. Fueron necesarias un par de revoluciones más allá de la informática interactiva para llegar tan lejos. A finales de la década de 1970, la revolución de las computadoras personales - fundada sobre las bases técnicas creadas por los investigadores de ARPA en la década anterior - había generado una nueva industria y una nueva subcultura. Las viejas estrellas de ARPA crearon nuevas empresas y dirigieron laboratorios de investigación cuando sus hermanos y hermanas menores decidieron alterar las computadoras de máquinas comerciales y estaciones de trabajo científicas a herramientas de pensamiento "para las masas", como lo expresó Commodore en sus primeros comerciales. Una vez más, los cambios en la manera en que se diseñaron y utilizaron las computadoras condujo a la expansión de las masas que usan computadoras - desde un cuasi sacerdocio en los años 50, pasando por una oligarquía en los años 60, a una subcultura en los años 1970, y a las Masas de programadores en crecimiento de los años 1980, a la masa informática de la década de 1990. Una vez más, no fue la corriente principal de la industria informática existente la que creó la informática personal asequible, sino adolescentes en los garajes. Y lo que motivó a los empresarios que construyeron la industria de las PC no fueron ni la defensa nacional ni el afán de lucro sino el deseo de crear una herramienta para cambiar el mundo. Conforme una masa crítica contó con máquinas lo suficientemente potentes en sus hogares, resultó inevitable que alguien diera con la forma de conectar las computadoras a los teléfonos. Las "tecnologías habilitantes" para las telecomunicaciones personales estaban disponibles; el costo de mercado de los dispositivos para conectarse fue disminuyendo su precio. Logradas computadoras potentes disponibles y módems asequibles para las Masas, no se necesita un ducto costoso y de alta velocidad como el utilizado en ARPANET. Simplemente conectando directamente a una línea telefónica, es posible publicar Manifiestos u organizar mitines electrónicos perfectamente legales (hasta ahora). Entre una Masa completamente distinta a la de las raíces investigadoras de la Red, se extendió el entusiasmo de la BBS. Los usuarios de las BBS se beneficiaron de la investigación y el desarrollo que hicieron posible la tecnología de las PC, pues hubiese sido poco probable que los microchips y máquinas interactivas hubieran estado disponibles para la Masa Actual si el Departamento de Defensa no los hubiera considerado esenciales para la seguridad nacional hace décadas. Pero los entusiastas de BBS no están interesados en ARPA ni en los grandes laboratorios: gracias a la tecnología asequible, ellos quieren saber qué pueden hacer en su hogar con sus propias manos. En la década de 1980, no eran sólo los informáticos los que utilizaban la Red o los usuarios de BBS dispersos por todo el mundo. Internet - la sucesora de ARPANET - patrocinada en la década de 1980 por la Fundación Nacional de Ciencias de los Estados Unidos, incluía ya a decenas de miles de investigadores y académicos de la industria privada y las universidades, conectados a la Red a través de los centros informáticos de sus instituciones. Cada centro de cómputo es una comunidad de individuos que comparten recursos informáticos, y cuando se une a la columna vertebral de alta velocidad de Internet, cada comunidad está conectada entre sí virtualmente, por medio de correo electrónico privado, chat público en tiempo real y conversaciones públicas de alcance mundial, como el Usenet. La cultura de la red adquirió un sabor global, juvenil y a menudo fuertemente estadounidense en la medida que muchas universidades de todo el mundo comenzaron a conectarse - empezando por los Estados Unidos. En el futuro, provendrá de allí la cultura de la red en el resto de la sociedad en todo el mundo: aquellos que se conectaron con ella en la universidad. ¿Verá el futuro una brecha cada vez mayor entre los ricos y los pobres en información? El acceso a la Red y el acceso a la universidad serán las puertas de entrada - en todas partes - a un mundo de comunicaciones y acceso a la información mucho más allá de lo posible a través de los medios tradicionales. Durante la década de 1980, se dispuso de una importante potencia informática en los campus universitarios estadounidenses y de todo el mundo; no sólo los estudiantes de programación, ciencias e ingeniería, empezaron a utilizar ordenadores personales en red como parte de su trabajo intelectual, junto con libros de texto y conferencias. No sólo muchos centros de computación universitarios se unieron a la columna vertebral de alta velocidad de la Red, sino que una masa de millones de estudiantes obtuvieron acceso telefónico a la Red. Miles de personas se enlazaron a Usenet, los MUD, el IRC (Internet Relay Chat) y las listas de correo electrónico. La infraestructura de red de los campus universitarios facilitó medios más eficientes para comunicar que las formas académicos de divulgación de información tradicionales (como los trabajos de investigación, o las tareas rutinarias de análisis y recopilación de conocimientos, como la búsqueda de referencias). La Red constituyó también una puerta de entrada a ámbitos puramente sociales. Dos de los experimentos culturales más importantes y populares, los MUD (que aparecieron por vez primera en la Universidad de Essex, Inglaterra) y la Usenet, se originó en los campus universitarios en 1979-1980. Usenet En 1979, los estudiantes de informática de la Universidad de Duke y la Universidad de Carolina del Norte experimentaron con un esquema simple mediante el cual estas dos comunidades informáticas - desconectadas por entonces a la ARPANET - pudiesen intercambiar información automáticamente a intervalos regulares a través de módem. Para 1990 -como resultado de aquél experimento de Carolina del Norte- Usenet transmitía decenas de millones de palabras en forma diaria a varios millones de personas distribuidas en más de cuarenta países. Se había propagado como un virus de campus a campus, de laboratorio de investigación a laboratorio de investigación, a escala pandémica. Extraoficialmente - a través de los comprensivos gerentes que dirigían los centros de cómputo - fueron incorporándose nodos de contacto. Unas pocas instituciones del sector privado (entre ellas, Bell Laboratories de AT&T y DEC) concertaron su impulso al crecimiento de Usenet abonando la factura de las telecomunicaciones entre sus principales sitios troncales. Estos empresarios - los defensores más apasionados del uso de las CMC - fueron también lo suficientemente visionarios como para que sus obreros y empleados tuviesen permitido realizar ciertos experimentos interesantes. Usenet no es una red ni una BBS, sino una forma de gestionar múltiples conversaciones públicas sobre temas específicos - conversaciones que no están ubicadas ni controladas en un sitio central sino que se distribuyen por todo el sistema. Es un sistema de conferencias por computadora a escala de red. Funciona en las redes informáticas pero no necesita de ellas. Es posible leer intervenciones en los grupos de noticias de Usenet desde Internet, o puede leerlos desde su PC de escritorio (si puede convencer a un sistema de tamaño mediano como WELL para que alimente el flujo de conversaciones a su PC). Usenet permite a las personas leer y responder conversaciones específicas sobre temas específicos - de manera similar a la forma en que leen y responden correos electrónicos - con la diferencia que las publicaciones de Usenet resultan públicas en lugar de privadas. De esta manera, Usenet se relaciona con otros esfuerzos por utilizar las máquinas como dispositivos de comunicación grupal de Masas a Masas. Usenet se parece más a The WELL que a Internet, pues se trata de conversaciones: cientos de miles de conversaciones fluyen al día sobre miles de temáticas diferentes. ARPANET, los BBS y los sistemas de conferencias que tuvieron orígenes separados hace diez y veinte años se encuentran en crecimiento, conformando un sistema multipartidario: la Red. En la década de 1990, el papel del gobierno y la industria privada en la concreción y regulación del siguiente nivel de Internet - la Red Nacional de Investigación y Educación (NREN) - se está convirtiendo en el foco de un debate público creciente sobre cómo actuar y conducir dicha convergencia. Mientras que los grandes gobiernos y las grandes empresas no se alinean para discutir sobre qué infraestructura de información operarán mejor para los Pueblos, los Pueblos tienen derecho a recordar a los políticos electos responsables que tales tecnologías fueron concebidas por personas que creían que el poder de la tecnología informática puede y debe ser aprovechado y puesta a disposición de toda un Pueblo, no sólo de las oligarquías. El futuro de la Red no puede tener un diseño inteligente sin prestar atención a las intenciones de quienes lo originaron. De ARPANET a NREN: la búsqueda de los creadores de herramientas Douglas Engelbart podría haber seguido siendo una voz en el desierto, uno de los innumerables inventores cuyos inventos hubiesen cambiado el mundo si no hubiesen acumulado polvo en un cajón. Posiblemente, para utilizar una computadora aún deberíamos tener que usar guardapolvo y dictar en FORTRAN para poder acceder a una computadora. Pero a principios de la década de 1960 Engelbart consiguió un trabajo de investigación informática respetablemente ortodoxas junto a un nuevo grupo de expertos en Menlo Park, California: el Instituto de Investigación de Stanford. Y unos años más tarde, su artículo "El aumento del intelecto humano", cayó en manos de J. C. R. Licklider - otro hombre con la misma visión de futuro que se encontraba en una posición históricamente afortunada para hacer algo respecto de ésta. En 1960 Licklider había escrito un artículo propio, "Simbiosis hombre-máquina", prediciendo que "en no muchos años, los cerebros humanos y las máquinas computadas estarán muy estrechamente acoplados, y la asociación resultante pensará como ningún ser humano lo ha hecho". "Alguna vez hemos de pensar y procesar datos de una manera no alcanzada por las máquinas de manejo de información que conocemos hoy en día". Licklider era un profesor del MIT y de Harvard que estudiaba psicoacústica. Al igual que Engelbart, fue atrapado por la idea de un nuevo tipo de herramienta relacionada con la computadora intelectual. La revelación de Licklider le llegó mientras se encontraba sentado en su oficina; había pasado horas creando diagramas y gráficos de sus datos experimentales cuando comprendió de que pasaba mucho más tiempo jugueteando con los datos, dibujando gráficos y encontrando citas, de lo que dedicaba a pensar. Un amigo de Licklider trabajaba en Bolt, Beranek y Newman - empresa de consultoría informática de Cambridge que tenía un tipo especial de computadora conocida como DEC PDP-1 (DEC, Digital Equipment Corporation, era una nueva empresa de informática que habían creado un par de graduados del MIT. Y el PDP-1 fue el primer ordenador comercial que mostraba información en una pantalla). Licklider se dió cuenta - al igual que Engelbart - que si podía introducir la información correcta en la memoria de la computadora, sería capaz de manipular datos, dibujar gráficos y encontrar citas (lo que llamaba "ponerse en posición para pensar"), mucho más eficientemente. Licklider recordaría mas tarde su encuentro con el PDP-1 como el comienzo de su participación en la cruzada de la informática interactiva. "Supongo que se podría decir que tuve una conversión religiosa", afirmó entonces. Licklider se involucró con la tecnología de visualización de computadoras en el Laboratorio Lincoln - facilidades del MIT que realizaban trabajos de carácter ultrasecreto para el Departamento de Defensa. Las nuevas computadoras y pantallas que el Comando de Defensa de América del Norte (NORAD) necesitaba a principios de la década de 1960 requerían del trabajo en el diseño de presentadores de información. A partir de dicho trabajo, uno de los investigadores jóvenes de Licklider - un estudiante de posgrado llamado Ivan Sutherland - inauguró el campo de los gráficos por ordenador. A través del Laboratorio Lincoln, Licklider conoció a las personas que luego lo contrataron en ARPA. En octubre de 1957 - tras el lanzamiento del Sputnik de la Unión Soviética - las personas responsables de mantener la tecnología militar puntera estadounidense entraron en acción. Para mantenerla al día con el vertiginoso ritmo de los avances técnicos, el Departamento de Defensa creó la Agencia de Proyectos de Investigación Avanzada con el mandato específico de avanzar la tecnología existente, de ser necesario evitando el proceso estándar de propuestas de investigación revisadas por pares. ARPA contaría con un cheque en blanco para dar con visionarios con ideas descabelladas y seleccionarlas en busca de planes viables. Cuando Licklider sugirió que las nuevas formas de utilizar las computadoras no sólo resultarían valiosas para las fuerzas armadas y las tecnologías de defensa aérea - sino que también podían mejorar la calidad de la investigación en todos los ámbitos al brindarles a los científicos y trabajadores de oficina mejores herramientas - fue contratado para organizar la Oficina de Técnicas de Procesamiento de Información de ARPA. Licklider sabía que existía toda una subcultura de genios de la programación poco ortodoxos agrupados en el nuevo Laboratorio de Inteligencia Artificial del MIT y genios de los gráficos como Ivan Sutherland en Lincoln. Existían mas en todo el país, ansiosos por tener en sus manos el tipo de recursos informáticos que no existían en la era de las tarjetas perforadas y los mainframes. Querían reinventar la informática. Los gigantes oligárquicos de la industria informática y la corriente principal del cómputo no estaban interesados en reinventar la computación. Fue así que Licklider y sus sucesores en ARPA - Robert Taylor e Ivan Sutherland (ambos de veintitantos años) - comenzaron a financiar a los jóvenes hackers: los hackers originales, como se relata en el libro Hackers de Steven Levy, no aquellos criminales que irrumpen en los sistemas informáticos de hoy. También financiaron a Engelbart - cuyo Centro de Investigación de Aumento (ARC) en el Instituto de Investigación de Stanford duró más de una década y creó los primeros procesadores de texto, sistemas de conferencias, sistemas de hipertexto, dispositivos señaladores de mouse, video mixto y comunicaciones por computadora (materia prima para la técnica de media docena de las industrias de alta tecnología más importantes de la actualidad). Cuando la primera ARPANET estuvo en línea, el ARC de Engelbart constituyó el centro de información de la red original, que centralizaba toda la recopilación de información y el mantenimiento de registros sobre el estado de la red. Durante la década de 1960, grupos financiados por ARPA trabajaron en diferentes aspectos de la informática interactiva en diferentes centros de investigación repartidos por todo el país. En el MIT, se concentraron primero en el tiempo de cómputo compartido - esquema mediante el cual muchos individuos podían interactuar directamente con un ordenador central a través de un terminal, en lugar de esperar su turno para enviar sus programas a los operadores de las máquinas. Cuando se construye un sistema informático que permite a cincuenta o cien programadores sentarse alrededor de una sala de ordenadores e interactuar individual y directamente con la máquina, se potencia automáticamente una comunidad, porque ellos querrán intercambiar conocimientos y conocimientos, realizar chistes mientras hacen su programación. El correo electrónico fue una de las funciones integradas en los nuevos sistemas de tiempo compartido. Conforme tuvieron el correo electrónico, abandonarlo les resultó destestable. Más tarde incorporaron correo electrónico al sistema que unía a las comunidades informáticas a través de fronteras geográficas. Los primeros usuarios de los sistemas CMC también fueron las personas que construyeron los primeros sistemas CMC; Como usuarios y diseñadores de esta herramienta de pensamiento, se vieron reacios de incorporar funciones que les quitaran poder a los usuarios individuales, por lo que diseñaron el sistema von un grado de autonomía de usuario que persiste en la arquitectura del ciberespacio actual. En el Laboratorio Lincoln y la Universidad de Utah - donde terminaron Ivan Sutherland y una generación más joven de cruzados como Alan Kay - la búsqueda eran los gráficos interactivos por computadora. El salto de la impresión alfabética a la visualización gráfica en pantalla fue importante en la evolución de la forma en que se diseñan las computadoras para ser operadas por personas, la "interfaz hombre-máquina". Los humanos procesamos muy bien el mundo visualmente; Podemos extraer mucha más información del color y patrones que de una página llena de números. Este avance en la manipulación de patrones en una pantalla computarizada de presentación de información implicó más que gráficos - porque una vez que se podía mostrar información gráfica en una pantalla, también se podían mostrar palabras. La capacidad de usar los gráficos para controlar la computadora - así como usar la computadora para controlar los gráficos - también condujo a nuevos avances que hicieron que las máquinas fuesen más fáciles de usar para las Masas. En lugar de un comando de computadora que requiere que una persona escriba una arcana frase de código, el usuario de la máquina puede señalar una imagen, presionar un botón y emitir el mismo comando, conocido ahora como órden de "apuntar y hacer clic". El equipo de Engelbart en el SRI reunió gráficos, tiempo compartido y comunicación grupal en un nuevo tipo de entorno de investigación que Engelbart denominó "investigación iniciada": el objetivo de los investigadores era diseñar mejores herramientas para ellos mismos; luego probarían y depurarían sus propias herramientas y las usarían para crear mejores herramientas. Otros proyectos ARPA produjeron hardware esencial para ARC. Había nodos importantes de la red de investigación en una docena de universidades diferentes e instituciones de investigación privadas como RAND en Santa Mónica y Bolt, Beranek y Newman en Cambridge, la empresa consultora que mostró por primera vez a Licklider el PDP-1. Bajo la dirección de ARPA de Licklider, Taylor e Ivan Sutherland, una comunidad de creadores de herramientas interdisciplinarios colaboró durante una década para producir lo que entonces llamaban computadoras de acceso múltiple. Los investigadores ARPA de todos los proyectos importantes se reunían en el mismo lugar una o dos veces al año. A lo largo de la década de 1960, directamente gracias a sus esfuerzos, los sueños originales de la informática interactiva y el aumento del intelecto humano comenzaron a convertirse en el tipo de computadoras que la gente usa hoy. Después de seis o siete años, los diferentes proyectos iniciados y apoyados por ARPA empezaban a converger. Cada centro de computación tenía hardware o software o datos especiales que otros centros no tenían. Un programador que utilice una poderosa computadora interactiva en Illinois podría hacer un buen uso del software de gráficos por computadora en otro centro de computación patrocinado por ARPA en Utah. En la era anterior, el cuello de botella era la forma en que la gente tenía que hacer cola para usar la computadora. El tiempo compartido hizo posible que las personas interactuaran directamente con la computadora. El siguiente cuello de botella fue la distancia geográfica entre el usuario y la computadora, y entre la computadora y la computadora. En la era del tiempo compartido, era natural preguntarse: ¿Por qué no ampliar la línea de control y conectar las computadoras, a través de líneas de telecomunicaciones, a distancia? ¿Podrían las máquinas enviar datos lo suficientemente rápido a través de cables de cobre para permitir la operación computacional remota y el intercambio de recursos? Si se podía lograr a través del corto cable que conectaba todos los terminales al mainframe de tiempo compartido, en teoría se podría hacer con un cable tan largo como un continente. La ortodoxia de las telecomunicaciones La década de 1960 era tan pesimista acerca de la búsqueda de ARPA como aquella ortodoxia de la informática desinteresada en el cómputo interactivo. Los planificadores de ARPA adoptaron una forma particular de enviar fragmentos de información informática a través de una red, un esquema conocido como conmutación de paquetes. IP La conmutación de paquetes es otro caso más de una tecnología inventada con un propósito cuya evolución la dirigió hacia propósitos que fueron más allá de las intenciones de sus inventores. Todo comenzó en la década de 1950, cuando la Corporación RAND realizó estudios ultrasecretos sobre escenarios de guerra termonuclear. Se centraron en la capacidad de supervivencia del sistema de comunicaciones que hacía posible el mando y control a nivel local y nacional. En una guerra nuclear total, la infraestructura de comunicaciones - redes de cables, centros de comando, antenas - se convertirían en objetivos principales. Paul Baran, de RAND, propuso que la amenaza de la falta de confiabilidad de cualquier red de comunicaciones en condiciones de combate nuclear podría abordarse descentralizando la autoridad para conservar el flujo de comunicaciones. La idea clave que propuso fue "que los mensajes se dividieran en unidades de igual tamaño y que la red enrutara estas unidades de mensajes a lo largo de una senda funcional hasta su destino, donde se volverían a ensamblar en conjuntos coherentes". El plan de Baran se hizo público en 1964. En lugar de tener una jerarquía de centros de mando en el sistema de comunicaciones que coincidiera con la organización jerárquica del mando y control militar, Baran propuso evitar un centro de mando y control de las comunicaciones. Dividió todas las comunicaciones en pequeños paquetes de datos y precintó los datos del mensaje en cada paquete con información sobre acerca de su origen y lugar de destino al que se dirige, y con qué otros paquetes se conectará al arribar allí. Luego, distribuyó enrutadores por toda la red capaces de leer la información de direccionamiento de los paquetes, y encaminarlos. De esta forma, los routers podrían actualizarse mutuamente sobre el estado de la red en intervalos muy cortos. Lo que un nodo cualquiera conoce acerca de la información de enrutamiento, lo saben todos los demás nodos poco después. Los paquetes son capaces de tomar rutas alternativas a través de la red. Si los nodos caen, la red los rodea. Si el nodo receptor en espera no recibe todos los paquetes de un mensaje, puede solicitar al nodo transmisor que retransmita paquetes específicos. Si construye una red de paso de mensajes con este esquema y utiliza computadoras para realizar el enrutamiento, puede construir una red que sobrevivirá a medida que un nodo tras otro sea destruido. El Laboratorio Nacional de Física de Gran Bretaña probó en la práctica los principios de conmutación de paquetes. Al mismo tiempo, ARPA emitió una solicitud de propuestas (RFP) para un sistema que vinculase computadoras de investigación en una red geográficamente remota. Robert Taylor contrató a Lawrence Roberts del Laboratorio Lincoln del MIT para redactar la RFP y elegir los sitios para los primeros nodos de la red. Roberts tomó la decisión de utilizar el esquema de conmutación de paquetes. Robert Kahn - profesor de matemáticas en el MIT - tomó una licencia para trabajar en Bolt, Beranek y Newman (BBN) - grupo de expertos financiado por el gobierno que terminó diseñando y ejecutando componentes clave de ARPANET. Kahn escribió la propuesta que ganó el primer contrato de ARPA para BBN. El primer nodo se entregó a UCLA en 1969 y la red se expandió a cuatro nodos a finales de año. Para 1970, Harvard y el MIT entraron en línea. A mediados de 1971, más de treinta ordenadores diferentes (y sus comunidades) estaban conectados a la red. Muchas de las personas involucradas en la financiación y construcción de la primera red - como Robert Taylor y Robert Kahn - todavía participan activamente en la creación de la próxima generación de tecnología de redes, más de veinte años después. La importancia de la tecnología de conmutación de paquetes para los no tecnólogos es doble. Primero, esta invención crea la base para un sistema de comunicaciones sin control central porque no se necesita un controlador central cuando cada paquete y toda la red de enrutadores saben cómo transmitir información. En segundo lugar, a medida que la información del mundo se digitaliza, esos paquetes pueden transportar todo lo que los humanos pueden percibir y las máquinas pueden procesar: voz, sonido de alta fidelidad, texto, gráficos en color de alta resolución, programas de computadora, datos, video en movimiento. Incluso puedes enviar paquetes por ondas. Hoy en día, en los laboratorios de investigación y desarrollo, una frase de moda es "convergencia digital", lo que significa que en el futuro próximo vivirán en la Red mucho más que comunidades virtuales y bibliotecas de texto. La digitalización es donde el futuro de la Red probablemente colisionará con otras fuerzas amplificadas por computadora en el mundo. Como le gusta decir a John P. Barlow: "El ciberespacio es donde está su dinero". El dinero ya es una abstracción, parte de un enorme e incesante flujo mundial de mensajes electrónicos. El valor que se gana ahora al saber cómo mover estos mensajes monetarios abstractos por las redes de telecomunicaciones del mundo eclipsa el valor original de los bienes y servicios que los produjeron. El dinero. El ciberespacio es hacia donde se dirigen el entretenimiento y las comunicaciones globales; grandes colonias de esas industrias ya viven allí. Las televisoras y los periódicos dependen de una versión ligeramente diferente de las mismas señales electrónicas básicas que viajan a través de la misma red mundial. Las compañías de cable están involucradas. Todo el mundo sabe que sólo aquellos cuyas redes se conectan con las de todos los demás tienen la oportunidad de llegar al enorme mercado mundial, pero nadie sabe todavía qué conjunto de intereses (periódicos, cadenas de televisión, conglomerados de entretenimiento, gigantes de los medios de comunicación) dominarán las redes del mercado masivo del futuro. Al mismo tiempo, muchos de los mismos poderosos intereses financieros están invirtiendo en proporcionar material ("contenido", en la jerga de las telecomunicaciones) para las redes digitales universales y de alta velocidad del futuro. Las industrias del entretenimiento y las comunicaciones están considerando los mismos canales tecnológicos para entregar sus productos. Actualmente, en laboratorios de Palo Alto y Cambridge, Inglaterra, las comunidades de CMC incluyen videoclips y mensajes de voz junto con sus correos electrónicos y conferencias. El hecho de que estos nuevos conductos técnicos de información tuvieran el potencial de crear nuevos tipos de comunidades fue observado y alentado por los más altos líderes de los proyectos de investigación que los crearon. Antes de que ARPANET estuviera en línea en 1969, las personas que habían patrocinado su desarrollo inicial, J. C. R. Licklider y Robert Taylor, escribieron un artículo con E. Herbert, "La computadora como dispositivo de comunicación", en el que expusieron su visión para el futuro de comunidades vinculadas a la computadora: Aunque ahora se están entregando más sistemas informáticos interactivos de acceso múltiple, y aunque más grupos planean utilizar estos sistemas durante el próximo año, en la actualidad tal vez sólo exista media docena de comunidades informáticas interactivas de acceso múltiple... El impacto será bueno o malo para la sociedad dependiendo principalmente de la pregunta: ¿Estar en línea será un privilegio o un derecho? Si sólo un segmento favorecido de la población tiene la oportunidad de disfrutar de la ventaja de la "amplificación de la inteligencia", es posible que la red exacerbe la discontinuidad en el espectro de oportunidades intelectuales. Por otro lado, si la idea de la red demostrara hacer por la educación lo que con esperanza han imaginado unos pocos - si en un plan detallado y concreto, todas las mentes demostraran ser receptivas - seguramente el beneficio para la humanidad sería incalculable. Tan pronto como ARPANET estuvo en línea, sus habitantes comenzaron a enviar correo electrónico, mucho más allá del requerido para mantener la red. Una de las características del correo electrónico es la misma simplicidad de enviar a través de la línea un mensaje a una persona como un fichero de cien páginas o mil. Simplemente se crea una lista de correo automática que contenga las direcciones de las personas a las que desea comunicarse. Otra característica del correo electrónico es que puede responder a cualquier mensaje que llegue a su buzón electrónico privado pulsando una tecla ("R" para "responder", en la mayoría de los sistemas). Si recibe un mensaje de una persona presente en una lista de correo, puede responderle en privado a esa persona o puede responder en semipúblico a todos los de la lista. Repentinamente, la correspondencia se convierte en una conversación grupal. Las listas privadas continúan proliferando hoy en día como una forma para que las personas creen sus propios sistemas de conferencias personalizados: "desarrolle sus propias" comunidades virtuales. La primera gran lista, la primera en fomentar su propia cultura - recuerdan los veteranos de ARPANET - fue SF-LOVERS, una lista de investigadores de ARPA que querían participar en debates públicos sobre la Ciencia Ficción. SF-LOVERS comenzó a aparecer públicamente en ARPANET a finales de los años 70s. Se intentó suprimirla, porque claramente quedaba fuera incluso de la interpretación más liberal de las actividades relacionadas con la investigación. El mérito de los altos directivos de ARPA es haber permitido que surgieran comunidades virtuales - a pesar de la presión para reinar sobre los netheads cuando parecían estar divirtiéndose demasiado. Los ingenieros del sistema rediseñaron el sistema una y otra vez para mantenerse al día con el crecimiento explosivo del tráfico de comunicaciones de la red. El aspecto social de las redes informáticas encontró su primer foro en la lista de correo electrónico de HUMAN-NETS. Cuando ARPANET estuvo en funcionamiento y las diferentes comunidades se unieron en listas de correo electrónico, la guerra de Vietnam estaba comenzando a politizar el ambiente de ARPA. Muchos de los investigadores jóvenes más brillantes no se sentían tan cómodos trabajando para el Departamento de Defensa. En ese momento, apareció otro visionario del sector privado y tuvo la suerte de capturar a lo mejor y más brillante del equipo ARPA. Caras en el Parque En 1969, Peter McCullough, director ejecutivo de Xerox, proclamó la intención de hacer de su empresa "el arquitecto de la información del futuro". Inició en California la construcción de una instalación de investigación de procesamiento de información de última generación y multimillonaria, el Centro de Investigación Xerox en Palo Alto, conocido como PARC. C . Para crear y gestionar el Laboratorio de Ciencias de la Computación, Xerox contrató a Robert Taylor, ex miembro de la NASA y ARPA. Y Taylor contrató a Alan Kay y a unas pocas docenas de las mejores luminarias de ARPA, que durante años habían estado repartidas por todo el país en diferentes instituciones. PARC se convirtió en el paraíso para los ingenieros de hardware y programadores de software que convergieron en Palo Alto a principios de los años 1970. Se trataba de personas que se conocían por su reputación, cooperaban como colegas y competían como compañeros durante casi diez años de trabajo patrocinado por ARPA. Estaban allí, juntos por primera vez en un mismo lugar como equipo estelar, obrando para un director de investigación que compartía su visión, con un presupuesto generoso y el mejor equipamiento posible. Eran personas que - como dijo Alan Kay - "estaban acostumbradas a tomar rayos con ambas manos". Muchos de ellos eran adolescentes y tenían poco más de veinte años cuando crearon gráficos por computadora y sistemas de tiempo compartido; todavía eran lo suficientemente jóvenes para incitar otra revolución. Ahora trabajaban para empresas privadas en lugar de hacerlo para la milicia, pero el objetivo de la búsqueda permaneció inalterado al trasladar su foco a PARC: liberar el poder de cómputo para que la masa la utilice para ayudarles a pensar y comunicarse. Xerox PARC en la década de 1970 fue la segunda cruzada para los fabricantes de herramientas de pensamiento. Muchas de las ideas desarrolladas por el equipo de Engelbart en el SRI migraron a PARC. Allí sabían exactamente lo que querían hacer: querían ir más allá del tiempo compartido y crear máquinas lo suficientemente potentes, compactas y económicas como para poner una en un escritorio: computadoras personales para las Masas. Sabían que cada dos años el coste de la potencia informática se reducía a la mitad y que las próximas tecnologías de fabricación de microchips - conocidas como circuitos integrados - harían que los ordenadores personales fuesen económicos en solo unos siete años. También sabían que les llevaría unos siete años diseñarlos para que la gente pudiera utilizarlos. El equipo de PARC también sabía que el costo de otra tecnología (las pantallas tipo televisión) también estaba cayendo drásticamente. Las computadoras baratas y las pantallas baratas significaban que se podría diseñar una interfaz hombre-máquina altamente gráfica, donde las personas "señalan y hacen clic" en representaciones gráficas en lugar de escribir comandos en lenguaje computacional. La primera computadora personal fue la Alto, la estación de trabajo que el equipo PARC diseñó y construyó a principios de la década de 1970. Al mismo tiempo que construían los prototipos para las PC del futuro, los veteranos de ARPA en PARC no quisieron perder la conectividad de comunicación personal que habían gozado con el tiempo compartido y la ARPANET. Diseñaron entonces una red de muy alta velocidad, Ethernet, para conectar todos las Altos de su edificio. La idea de las redes de área local (LAN) emanó de Ethernet. Todas las oficinas, fábricas y campus llenos de estaciones de trabajo en la década de 1990 se encuentran conectadas mediante redes LAN. Los investigadores de PARC también fueron pioneros en la investigación sobre formas en que las redes locales como Ethernet de PARC podrían conectarse a través de computadoras de entrada a redes más amplias como ARPANET. La tecnología de "internetworking" que comenzó en ARPA y PARC ha sido uno de los estimulantes del rápido crecimiento de la Red, porque permite que todos los archipiélagos de redes locales emergentes individualmente se conecten entre sí en redes de internet. A lo largo de los años 1970 y 1980, la tecnología de interconexión en sí misma evolucionó a un ritmo rápido. La velocidad con la que se puede transmitir la información a través de un medio es un determinante fundamental de qué tipo de información se puede transmitir, su valor y quién puede permitirse enviarla o recibirla. Este es un lugar donde los avances tecnológicos en capacidad se transforman en avances económicos. Cuando su tasa de bits por segundo es baja y costosa, puede enviar mensajes laboriosamente por telégrafo. Cuando su velocidad de bits por segundo es alta y económica, puede enviar libros, enciclopedias y bibliotecas enteras en menos de un minuto. La economía de la velocidad en la tecnología CMC es fundamental para la noción de informática accesible a las masas. Si un descamisado hoy puede tener el poder telemático que sólo el Pentágono podía permitirse hace veinte años, ¿cuánto podrán permitirse los ciudadanos en poder de telecomunicaciones dentro de cinco o diez años? ARPANET utilizó enlaces de 56.000 bits por segundo durante más de una década. Se trata de una velocidad muy alta en comparación con la velocidad de los primeros módems personales, por ejemplo, que enviaban información a 300 bits por segundo. En 1987, NSFNET (el sucesor de Internet) pasó a líneas de comunicación capaces de transportar 1,5 millones de bits por segundo. En 1992, la red troncal de NSFNET había pasado a líneas de 45 millones de bits por segundo, un aumento de setecientas veces la velocidad en cinco años. A esa velocidad puedes enviar cinco mil páginas por segundo, un par de enciclopedias por minuto. El próximo salto cuántico en velocidad es el nivel del gigabit: miles de millones y cientos de miles de millones de bits por segundo; en el nivel multigigabit por segundo, estás hablando de cuántas Bibliotecas del Congreso puedes transmitir cada minuto. La conexión en red a velocidad Gigabit es uno de los proyectos del actual banco de pruebas de la NREN, por lo que la conexión en red por minuto de las Bibliotecas del Congreso ya se encuentra en la fase de prototipo. Y la investigación sobre la creación de redes en terabits (billones de bits por segundo) está en marcha. ␌Así como el costo de todo lo que depende de la potencia de la computadora cayó drásticamente cuando la miniaturización hizo que las computadoras fueran más poderosas, el costo de todo lo que depende de la velocidad de transferencia de información va a bajar. Los cambios grandes y/o rápidos en cantidad pueden generar cambios igualmente discontinuos en la calidad de un fenómeno, cuando entran en juego "comportamientos emergentes". Cuando puedes trasladar la Biblioteca del Congreso de un lugar a otro en menos de un minuto, la noción misma de lo que significa tener un lugar llamado Biblioteca del Congreso cambia. A medida que se vuelve digital, ese lugar en Washington, D.C., se está virtualizando. Ya puedo obtener el catálogo de la Biblioteca del Congreso desde mi escritorio. Cuando puedo descargar el texto fuente a mi escritorio, mi sensación de dónde reside esa información cambia. Está en el otro extremo de mi línea de módem, junto con el resto de la red, lo que significa que está más o menos en mi escritorio. Masas En términos de crecimiento demográfico, la comunidad ARPANET original contaba con alrededor de mil personas en 1969. Poco más de veinte años después, la Masa de Internet se estima entre cinco y diez millones de personas. La tasa de crecimiento es demasiado rápida para realizar mediciones precisas en este momento, ya que las redes mundiales conectan todas las redes pequeñas y medianas que han estado creciendo durante la última década aproximadamente. El número total de redes conectadas creció de un par de centenares a principios de los años 1980 a más de siete mil quinientas a principios de los años 1990, llegando a personas en más de setenta y cinco países. En la edición de septiembre de 1991 de Scientific American, el entonces senador Albert Gore señaló una estimación que ha sido respaldada por otros: durante los últimos cinco años, sólo Internet ha estado creciendo en número de usuarios a alrededor del 10 por ciento por mes. Los Hosts en Internet son las comunidades informáticas individuales. Algunos servidores, como The WELL, cuentan con miles de usuarios; algunos tienen decenas y cientos de miles de usuarios. En Internet - en un documento disponible públicamente conocido como RFC (Solicitud de comentarios) - existe una gráfica de la tasa de crecimiento de los servidores de Internet durante la década de 1980. Obviamente, estas tasas de crecimiento tendrán que estabilizarse eventualmente. No hay suficientes personas en el mundo para sostener tasas de crecimiento como esas. Pero el cartógrafo del ciberespacio John Quarterman, en su artículo "¿Qué tamaño tiene la Matrix?" capturó el aspecto más importante de estas tasas de crecimiento: la implicación obvia de que esta subcultura en gran medida invisible probablemente salga pronto a la superficie de la conciencia mundial, debido a su enorme tamaño. En dos años, habrá más usuarios de la red que residentes de cualquier estado de Estados Unidos. En cinco años habrá más usuarios de la red que ciudadanos de cualquier país excepto India o China. ¿Qué pasará cuando la aldea global de McLuhan se convierta en uno de los países más grandes del mundo? ¿Usando comunicaciones bidireccionales, no censurables? ¿Y cruce fronteras de espacio, tiempo y política? A principios de la década de 1980, las exigencias burocráticas y financieras de ejecutar ARPANET habían superado a ARPA. La Red era ahora un recurso intelectual, y los académicos y científicos clamaban por participar en ella, incluso si no estaban haciendo investigaciones relacionadas con las armas. CMC estaba siguiendo el mismo camino de difusión que había seguido la tecnología informática diez o veinte años antes: desarrollados primero como parte de investigaciones relacionadas con armas, los ordenadores y las redes pronto demostraron ser valiosos y luego asequibles, primero para investigadores científicos ajenos a la investigación de armas y luego para las grandes empresas. , luego a las pequeñas empresas y luego a los ciudadanos. A principios de la década de 1980, los científicos ajenos a la interpretación más liberal de la investigación relacionada con el ejército querían hacer uso de las redes informáticas. ciencia.com La ciencia es una empresa que depende de la comunicación, una de las empresas de comunicación más universales del mundo: si eres un científico, haces una observación o piensas una teoría y la publicas; otros científicos pueden leer su observación y teoría y probarla, luego publicar la naturaleza y los resultados de sus pruebas. De este proceso de observación, experimentación, teorización y comunicación se supone que emerge el conocimiento científico. El cuello de botella es el acceso a la academia, a las jerarquías científicas que admiten a los novatos en círculos donde sus comunicaciones pueden ser notadas. En el siglo XIX, un monje austríaco, Gregor Mendel, experimentó con guisantes de olor y descubrió las leyes de la genética, pero no tuvo acceso a las más importantes revistas científicas. El conocimiento permaneció en barbecho durante décadas, hasta que fue redescubierto en una oscura revista por biólogos que estaban tras la pista de los misterios de la genética. Vale la pena recordar la experiencia de Mendel en la medida que el discurso científico avanza hacia la Red. Si cada vez más comunicación científica atravieza a la Red, como parece estar sucediendo, donde cualquiera que tenga acceso a la red pueda exponer sus ecuaciones o su teoría junto con los académicos, es probable que se obtengan varios tipos de resultados. En primer lugar, estás tan marginado como lo estaba Gregor Mendel si no eres miembro de la academia ni de la Red, porque ahí es donde estará toda la atención importante. En segundo lugar, si eres Gregor Mendel, todo lo que tienes que hacer es obtener acceso a la red para poder participar en la conversación grupal internacional sobre ciencia. Pero antes de que la Red creciera lo suficiente como para permitir la participación ciudadana, el acceso a la Red permitió a los científicos en campos en rápida evolución tener sus propias versiones especializadas de la base de datos viva que WELL y Usenet proporcionan a otros grupos; En la medida en que el proceso científico está integrado en la comunicación grupal, la característica de muchos a muchos de las comunidades virtuales puede acelerar y democratizar el acceso al conocimiento de vanguardia. De ahí la presión de los investigadores científicos no militares para obtener acceso a la Red en los años ochenta. En 1983, la ARPANET se dividió en una ARPANET para investigación y MILNET, para uso militar operacional. Ambas eran redes troncales de área amplia que se comunicaban entre sus propios nodos troncales a las velocidades más altas, ofreciendo soporte a comunidades de usuarios que ascendían a cientos y miles. Cuando las redes comenzaron a integrarse en los tipos de computadoras que utilizaban la mayoría de las universidades y laboratorios de investigación, Internet creció explosivamente. Esto fue, en parte, alentado por ARPA. Cuando las máquinas pasaron del antiguo modo de trabajo por lotes (que utilizaba tarjetas perforadas) al acceso de cómputo multiusuario de tiempo compartido, se crearon nuevas formas de operar las computadoras. Unix, un sistema operativo para computadoras de acceso múltiple, fue creado por programadores de los Laboratorios Bell para usos de investigación en 1969, el año en que ARPANET entró en línea. Unix Un sistema operativo es un programa de control maestro que maneja las interacciones entre usuarios humanos y los programas de computadora; Unix fue diseñado para programadores de computadoras interactivas que necesitaban poder crear herramientas, compartirlas entre sí y propagar herramientas exitosas en toda la comunidad de programadores. Nadie imaginó jamás que se convertiría en un estándar mundial, utilizado por millones de no programadores. Así, el éxito inesperado de Unix - originalmente una herramienta de investigación de sistemas operativos para programadores - creó un conjunto uniforme de bloques de comunicación integrados en todas las máquinas que usaban Unix para uso de científicos y estudiantes. Estos componentes básicos resultaron útiles más tarde, cuando todas aquellas máquinas Unix en universidades y laboratorios de todo el mundo empezaron a llamarse entre sí mediante módems y a comunicarse a través de redes de alta velocidad. UUCP, el programa "copiador de Unix a Unix", hizo posible que cualquier computadora que usara Unix marcara y compartiera información automáticamente a través de un módem con cualquier otra computadora Unix. Esto proporcionó una infraestructura de red alternativa a aquellas computadoras que no estaban en Internet. En 1983, programadores de la Universidad de California (financiados por ARPA), crearon una versión de Unix para nuevos modelos de máquina disponibles; al Unix de Berkeley se incorporó el código informático necesario para comunicarlo con Internet (conocidos como conjunto de protocolos TCP/IP). Desde entonces, las computadoras Unix no sólo podrían comunicarse entre sí gracias a módems relativamente lentos, sino que también podrían codificar y decodificar paquetes de datos en viaje a mucha mayor velocidad en Internet. Debido a que los fondos públicos habían apoyado su desarrollo, esta nueva versión de Unix se vendió a cambio del costo nominal de distribución. A mediados de la década de 1980 surgieron nuevas empresas - como Sun Microsystems (financiada por ARPA) - e instantáneamente destacaron por sus portes de Unix para redes integradas. En los departamentos de ciencias de las universidades de todo el mundo crecieron las redes locales de datos. Y estas redes locales comenzaron a agruparse con redes más grandes como ARPANET y MILNET. Otra red para debates académicos y académicos no limitados a las ciencias, BITNET, patrocinada por IBM, comenzó a expandirse. Crecieron enormes redes corporativas internas en DEC, IBM y AT&T. Esta red de redes que surgió en los años 1980 se llamó ARPA Internet, luego simplemente Internet. Cuanto más útil se apreciaba esta nueva herramienta, más personas que originalmente no estaban autorizadas para usarla quisieron poder utilizarla. Aquellos informáticos a quienes se les había negado el acceso a la Red (según la estricta interpretación del "uso aceptable" del Departamento de Defensa estadounidense) recurrieron a la Fundación Nacional de Ciencias (NSF). Una vez que la interconexión de redes se convirtió en un recurso intelectual valioso para los científicos, la NSF estableció CSNET - otra red orientada a la ciencia dentro de Internet - y financió distintas redes de investigación regionales. Los académicos no científicos quisieron tener acceso a las CMC, por lo que NSF e IBM establecieron BITNET. Debido a que la tecnología de conmutación de paquetes y redes se creó con fondos financiados con impuestos de los contribuyentes, se aseguró que las sucesivas generaciones de la red implementasen políticas de "uso aceptable" que descartaban la actividad comercial; Esta situación comenzó a cambiar en 1993 cuando Internet comenzó a privatizarse. Uso Aceptable La Red se ha ampliado y la definición de "uso aceptable" una y otra vez. Se ha ampliado como resultado de la presión de Masas al acceso en línea. La primera definición de "uso aceptable" limitaba la Red a los investigadores de DARPA (como se conoce ahora a ARPA); eso se amplió para incluir a otros investigadores científicos financiados por militares y gobiernos, luego se expandió a las comunidades científicas y académicas, y ahora está en proceso de expandirse a la comunidad empresarial. En este momento, sigue siendo una incógnita si se producirá la próxima y más importante extensión de la comunidad de la Red (al campo de la educación y luego a todos los ciudadanos). La mitad de la década de 1990 parece una bifurcación en el camino: ¿continuará el proceso de expansión más allá de la comunidad empresarial o intentarán adueñarse de todo? La razón por la que el Congreso de Estados Unidos continúa asignando fondos para desarrollar redes cada vez más poderosas es que se les ha dicho que Estados Unidos corre el peligro de quedarse atrás, ya sea en la investigación de supercomputadoras o en ventajas económicas competitivas. Los usos educativos y ciudadanos –y los derechos de acceso– son un tema relativamente reciente. La competencia en las supercomputadoras, y no el reconocimiento del valor intelectual intrínseco de las redes de alta velocidad, fue el factor clave para financiar la actualización de la antigua ARPANET a una nueva generación de tecnología de redes. NSF también participó a principios de la década de 1980 en otro experimento de salto, una red de alta velocidad para interconectar centros de supercomputadoras en todo Estados Unidos. Las supercomputadoras eran demasiado caras para distribuirlas ampliamente, por lo que NSF apoyó a cinco centros regionales de supercomputadoras. A mediados de la década de 1980, la supercomputación había pasado a la parte del ciclo en la que los científicos querían utilizarla para investigaciones no relacionadas con la milicia. Para entonces, las redes de alta velocidad eran una tecnología probada, y las tecnologías de redes de ultra alta velocidad en el horizonte podrían hacer por las supercomputadoras lo que ARPANET había hecho por las primeras computadoras de acceso múltiple. NSF inició el proyecto NSFNET para vincular los centros de supercomputadoras y sus comunidades de usuarios. La red entró en funcionamiento en 1986 y NSFNET se convirtió en la principal columna vertebral de Internet. En ese momento, las velocidades de transmisión en la red troncal estaban en el nivel de un millón de bits por segundo. ARPANET fue dado de baja honorablemente en marzo de 1990. Privatización El proceso de transferencia de tecnología, de traspasar Internet desarrollado por el gobierno a empresas privadas, ha sido controvertido desde el principio. En 1987, NSF otorgó un contrato para administrar y actualizar la red troncal de Internet a Merit Network, Inc., que administraba la red educativa estatal en Michigan en asociación con IBM y MCI Communications. En ese momento, varios veteranos de ARPANET y otros habían creado pequeñas organizaciones para desarrollar nuevas aplicaciones para nuevas comunidades de red, y estas empresas no estaban nada contentas de escuchar acerca de la entrada de los mismos viejos grandes en lo que antes había sido una amplia red. frontera abierta. Al igual que la tecnología informática en la década de 1950, la tecnología CMC a finales de la década de 1980 había llegado al punto en el que había llegado el momento de migrar de la investigación de defensa financiada con fondos públicos a empresas y ciudadanos privados. Este es el punto más crítico en la historia de la tecnología, ya que las decisiones y acontecimientos del futuro próximo proyectarán una larga sombra sobre el futuro. Mientras la Red continúa sirviendo como un recurso intelectual, económico y tal vez cultural para los ciudadanos, una especie de marea de conocimiento que levanta todos los barcos, en caso de que sea el tipo de proyecto de infraestructura que está debidamente financiado por el gobierno nacional de los Estados Unidos. , como ocurre en Japón y Francia? Si es más apropiado dejar esta tecnología en manos del mercado y de las industrias privadas, ¿cómo deberían protegerse los derechos de los ciudadanos contra las infracciones de esas industrias, de la misma forma en que esos derechos se protegen constitucionalmente cuando el gobierno los administra? ¿Cómo deberían protegerse las pequeñas empresas emergentes de la competencia desleal de los gigantes de la industria actual? ¿Quién determinará las nuevas reglas sobre privacidad, propiedad intelectual y comercio internacional que acompañarán el crecimiento de la Red? A principios de la década de 1990, estas cuestiones se convirtieron en temas de acalorados debates que continuarán en los años venideros. A finales de los años 1980, la Red empezó a superar la capacidad de gestión del gobierno. Había llegado el momento de traspasar las redes de acceso más amplio a la industria privada. Pero persistían serias dudas sobre la forma adecuada de privatizar esta tecnología financiada con fondos públicos. ¿Es CMC un medio editorial, un servicio de comunicación o un espacio público informal? ¿Qué grado de regulación pública es apropiado en una industria en la que los derechos de los ciudadanos a comunicar sobre asuntos de interés público están en juego con el precio del acceso? Ahora que algunas de las mismas empresas comerciales que no estaban interesadas en desarrollar la tecnología hace veinte años os compiten por contratos para proporcionarlo en el futuro, ¿qué derechos tienen los ciudadanos para determinar la forma en que esta herramienta se transfiere del sector público al privado? Al mismo tiempo que la Red una vez más ha superado a sus patrocinadores gubernamentales, un movimiento para crear una Red aún más poderosa e inclusiva ha crecido hasta convertirse en la base legislativa para la próxima encarnación de ARPANET-INTERNET-NSFNET, llamada National Research and Red de Educación (RNIE). Una vez más, la legislación estuvo fuertemente influenciada por los temores de que el ejército y la industria estadounidenses perdieran una ventaja competitiva en las tecnologías de supercomputadoras y redes, en respuesta a un informe de la Oficina de Ciencia y Tecnología que enfatizaba la posibilidad de quedarse atrás en esos campos. A finales de la década de 1980, comenzó la Ley de Computación de Alto Rendimiento su paso por el Congreso. En el camino, la noción de una "superautopista nacional para la información" se adjuntó a la legislación destinada a mejorar Internet, y el senador Albert Gore de Tennessee emergió como el defensor de una red que permitiría a los escolares acceder a la Biblioteca del Congreso y a las zonas rurales. médicos para cargar tomografías computarizadas en los centros médicos metropolitanos. Durante las audiencias en el Congreso, expertos como Robert Kahn, que había desempeñado un papel decisivo en la creación de ARPANET, defendieron firmemente la utilidad de una infraestructura de información nacional que llevaría los beneficios de la Red a las escuelas primarias y bibliotecas, así como a los laboratorios, universidades y y empresas. El proyecto de ley de Computación de Alto Rendimiento/NREN, firmado por el Presidente Bush, autorizó 650 millones de dólares de nuevos gastos por parte de NSF, 388 millones de dólares por DARPA y 31 millones de dólares por el Instituto Nacional de Estándares y Tecnología del Departamento de Comercio. Se instalaron cinco bancos de pruebas de redes gigabit en todo Estados Unidos. Se puso en marcha la investigación fundamental para una tecnología de red mucho más rápida, capaz de enviar escaneos CAT y vídeo en tiempo real, junto con textos por minuto de las Bibliotecas del Congreso. El debate sobre cuánto de ese dinero debería asignarse a aplicaciones educativas y ciudadanas está lejos de terminar. Al mismo tiempo, existe controversia sobre la transferencia institucional de tecnología de NSF a corporaciones privadas. Los fondos iniciales necesarios para crear la tecnología para una nueva red nacional de información se gastarán, sin importar los recortes presupuestarios que puedan surgir en el futuro. La cuestión de quién lo gestionará y a quién se le permitirá utilizarlo está muy abierta. Una vez más, los términos de "uso aceptable" están siendo cuestionados por poblaciones de forasteros que quieren participar. A medida que las organizaciones comerciales (incluidas dos de las corporaciones más grandes del mundo, IBM y AT&T) asuman la gestión de la Red de manos de las instituciones gubernamentales, ¿quién obtendrá acceso y a quién se le negará el acceso? ¿Quién formulará las políticas sobre lo que los usuarios pueden decir o hacer en la Red? ¿Quién arbitrará los desacuerdos sobre el acceso o el comportamiento en línea? Esta tecnología se desarrolló con dinero de los impuestos. ¿Debería haber un límite a la cantidad que las empresas privadas podrán cobrarnos en el futuro por utilizar una tecnología cuyo desarrollo se utilizó dinero público en el pasado? ¿Monopolio? El furor no se limitó a los Netheads cuando IBM comenzó a ocupar territorio en la Red. Empezó a parecer como si algunos de los gigantes de la industria estuvieran planeando convertirse en competidores en el mismo mercado en el que, como contratistas de Internet, controlaban el acceso comercial a la Red. La empresa de IBM y MCI, ANS, gestionaba NSFNET desde 1987; En 1991, ANS, una corporación sin fines de lucro, creó una subsidiaria con fines de lucro llamada ANS CO+RE para vender servicios de CMC. En un artículo de diciembre de 1991 en el New York Times, titulado "Se dice que Estados Unidos es favorito en la promoción de la red informática nacional", el periodista de tecnología John Markoff, que publicó la historia del gusano Morris, escribió: "Sólo una semana después de que el presidente Bush firmara la legislación Al pedir la creación de una "superautopista" de datos informáticos a nivel nacional, ha estallado un debate sobre si el gobierno dio una ventaja injusta a una empresa conjunta de IBM y MCI que construyó y administra una parte clave de la red". Markoff citó a varios expertos y competidores privados que temen que ANS pueda utilizar su posición como administrador de NSFnet para dificultar las cosas a los competidores que desean conectarse a la red. "Las personas involucradas en la planificación de una red nacional de datos dicen que es esencial prever una competencia leal, lo que llevará a las empresas rivales a ofrecer servicios creativos y empresariales con la esperanza de ganar cuota de mercado. Sin competencia, dicen, el gobierno habrá creado un monopolio que tiene pocos incentivos para innovar", escribió Markoff. Citó a David Farber, uno de los pioneros de ARPANET original y ahora científico informático en el banco de pruebas de la NREN de alta velocidad de la Universidad de Pensilvania: "Ésta es la primera gran empresa de comunicaciones que nace en la era de la desregulación. Esto no ha sucedido". ¿No ha sucedido desde el crecimiento de la industria telefónica?. Quieres que sea un negocio que no repita los errores del pasado". Un contratista privado que teme la competencia con ANS CO+RE es William L. Schrader, presidente de Performance Systems International, Inc., una empresa de Reston, Virginia, que proporciona conexiones comerciales a Internet. "Pero no hay igualdad de condiciones. Es como tomar un parque federal y dárselo a K Mart", dijo Schrader a Markoff. "No está bien y no se mantendrá. Como contribuyente, creo que es repugnante". Markoff también citó a Mitchell D. Kapor, fundador de Lotus y director de Electronic Frontier Foundation: "Nadie debería tener una ventaja injusta. Esto es importante porque estamos hablando de algo que está en su infancia pero que algún día podría estar en el mercado". El Orden de la industria de las computadoras personales ¿Cuánto tendrá que pagar la gente, y qué tendremos que aceptar decir o no decir, para alimentar información a la Red y extraer información de ella? El precio determina el acceso. ¿Qué quieren controlar las grandes empresas que quieren ser los principales contratistas de Internet del futuro? Si controlan los conductos de información, las redes de fibra óptica y los enrutadores de alta velocidad, y también compiten para proporcionar servicios comerciales a través de esos conductos, ¿qué efecto tendrá eso en sus competidores más pequeños? ¿Cuál debería ser un precio justo que deberían cobrar por la continuidad de los servicios de red? ¿Y de qué manera estos actores importantes podrían verse tentados a restringir a los proveedores de información familiares para que compitan con ellos como proveedores de contenido? El gobierno y los principales líderes empresariales están debatiendo estas cuestiones ahora, razón por la cual la década de 1990 es una época en la que la voz de los ciudadanos cuenta para determinar la forma del futuro de la tecnología. A principios de 1993, un comunicado de prensa electrizó la Red. La Fundación Nacional de Ciencias anunció que estaba traspasando tres de las funciones administrativas más importantes de la gestión de Internet: asignar direcciones de Internet (y así actuar como puerta de enlace y posible punto de acceso para determinar exactamente a qué sitios se les concede permiso para unirse a la red de alta velocidad). ), mantener servicios de directorio y bases de datos (seguimiento de cómo localizar personas y recursos) y mantener servicios de información prestados a los usuarios de Internet (modernización de herramientas para el uso de la Red). Los contratos, por un total de 12 millones de dólares, se adjudicaron a Network Solutions (servicios de registro), AT&T (servicios de directorio y bases de datos) y General Atomics (servicios de información). Primero, MCI e IBM intervienen. Ahora AT&T. ¿Los grandes ya han hecho sus tratos secretos? ¿Se está construyendo apresuradamente una estructura de precios, antes de que nadie, salvo una minoría de la población, comprenda siquiera las implicaciones de una Internet privatizada? Hay una frase preocupante en el comunicado de prensa: "De conformidad con las pautas de la FNC sobre la obtención de una recuperación de costos razonable de los usuarios de las redes NREN, la NSF ha determinado que el proveedor de servicios de información de INTERNIC puede cobrar a los usuarios fuera de la comunidad de investigación y educación de los EE. UU. por cualquier servicio prestado. . . . ." Gordon Cook, un conocido cabildero de la Red que publica un boletín sobre las cuestiones políticas y de política relacionadas con la Red emergente, señaló en un flame ampliamente citada a la lista de correo electrónico de las Redes Comunitarias que las aplicaciones de base tan queridas por todos los utópicos populistas no son el objetivo principal de las NREN: Fecha: miércoles 9 de junio de 1993 20:11:48 -0700 De: Gordon Cook Asunto: Re: UNA GUERRA POR EL FUTURO DE LAS NREN/INTERNET . . . .Desafortunadamente, mucha gente nunca se detuvo a leer la legislación actual [Ley de Comunicaciones y Computación de Alto Rendimiento, 1991. PL 102-194 "Sec 102 (c) Características de la red La Red deberá (6) tener mecanismos de contabilidad que permitan a los usuarios o grupos de usuarios pagar por el uso de materiales protegidos por derechos de autor disponibles en la red y, cuando sea apropiado y técnicamente factible, **por su uso** de la red". Ahora bien, yo diría que esto apunta bastante directamente en la dirección de las facturas individuales con medidor de consumo. ¿Aún estás contento con lo que te ha aportado Al Gore? Los grandes defensores de las NREN han sido las agencias federales que han creído que los fondos públicos se invertirán en la compra de troncales de bits más grandes y mejores para diversos usos finales ALTOS. Por esta razón, no muchos de los miembros de la red han querido causar problemas cuando el proyecto de ley autoriza 500 millones de dólares para NREN a partir del año fiscal 92 al 96. Pero existe una enorme diferencia entre autorizar y apropiar, e incluso cuando se apropia, puede ser expropiado.... Todo el asunto es espantosamente complicado. Lamentablemente, muy pocas personas tienen una visión completa del panorama.... lo que deja a las piezas a cargo de los intereses especiales como de costumbre. (Después de tres años a tiempo completo en el camino, creo que *TENGO* una idea de TODO el panorama). Esto interesó a un periodista del Washington Post. Pero hasta ahora lo único que hacen sus editores es bostezar. Y la mayoría de los periodistas tienen que cubrir una gama tan amplia de tecnología que nunca pueden encontrar tiempo para informarse sobre cómo se deben unir todas estas piezas. El aspecto de base es aburrido para los intereses especiales. Allí no hay suficiente dinero. Y como intenté decir cuando comencé esta lista, si las bases creen que obtendrán beneficios significativos de las NREN, probablemente se desilusionarán. . . . Este podría ser el comienzo de un proceso bien pensado de privatización de una tecnología que hace mucho tiempo superó a sus patrocinadores gubernamentales. Pero quedan preguntas clave por responder si queremos que los ciudadanos tengan la seguridad de que no estamos siendo engañados: ¿quién tendrá acceso, cuánto costará y cómo se arbitrarán las disputas sobre acceso, costo o contenido? Las cuestiones claves de acceso, fijación de precios, censura y reparación de agravios serán respondidas en la práctica, mediante leyes, órdenes ejecutivas o acciones legislativas, durante los próximos cinco años, y determinarán así la estructura política y económica de la Red durante décadas. venir. ¿Qué puede encontrarse en la red? El contenido de ARPANET empezó a crecer rápidamente en dos direcciones desde el principio. Una vez que la Red existe, todo lo que tienes que hacer para aumentar los recursos colectivos de toda la comunidad es agregar un recurso valioso a tu nodo y permitir que otros ciudadanos de la Red accedan a él. Cada día, más y más recursos informativos y computacionales estaban en línea a medida que los nodos locales agregaban esa parte de sus recursos que compartían con el resto de la comunidad de la red, y cada vez más personas comenzaban a comunicarse entre sí de nuevas maneras. La clave es la forma en que los recursos disponibles para cualquier usuario individual de la Red se multiplican junto con el crecimiento de la Red en otras dimensiones: número de computadoras diferentes en línea, velocidad a la que se puede transferir la información, cantidad de material transferido de forma analógica a digital. Cuanto más grande y más rápido crece la Red, más influencia le da a cada individuo que puede obtener acceso y que sabe cómo utilizarla. Cuando The WELL se conectó a Internet en 1992, tuve a mi disposición más información de la que podría manejar en cien vidas. Por ejemplo, una computadora en Internet tiene versiones actualizadas de mapas meteorológicos digitalizados por radar satelital. Si tengo una cuenta en una computadora conectada a Internet, puedo transferir ese archivo de computadora que contiene la foto de satélite a mi escritorio. Otro programa en mi computadora de escritorio transforma ese archivo de computadora en una imagen. ¡Voilá! Allí, en vivos colores, hay un perfil de radar de la costa oeste de América del Norte, tomado por un satélite hace unas horas; si descargo un conjunto de fotografías sucesivas, puedo revisarlas en mi máquina de escritorio como diapositivas electrónicas y observar cómo se mueve un frente de tormenta a través del Pacífico. Puedo ir a su tienda de informática local y comprar software comercial hoy mismo que contará automáticamente un servidor de red, descargará a su escritorio los archivos meteorológicos más recientes y los convertirá en imágenes listas para ver. El catálogo de fichas de la Biblioteca del Congreso está disponible y puede ser consultado por cualquier ciudadano de la Red, al igual que varios cientos de catálogos de fichas y colecciones periódicas de bibliotecas de todo el mundo. Las últimas decisiones de la Corte Suprema están disponibles en línea, al igual que el texto completo del libro anual CIA World Factbook. Puedo utilizar sofisticados motores de búsqueda en potentes ordenadores para encontrar las letras de canciones más populares. Están disponibles el texto completo de la Biblia, la Torá y el Corán, y se pueden buscar por palabra clave. La tecnología de red realiza automáticamente todas las conexiones de máquina a máquina entre mi computadora de escritorio y una computadora host de Internet, y a través del host a cualquier otra computadora conectada a la Red, lo que significa la Biblioteca del Congreso, todos los catálogos de bibliotecas universitarias en la Red en todo el mundo, la Corte Suprema y virtualmente otros recursos de conocimiento que estén más o menos disponibles para mí en todo momento. La creciente digitalización y disponibilidad de información recopilada por los gobiernos a expensas de los contribuyentes es otra fuerza convergente que está empujando a la Red hacia una masa crítica. Cada vez hay más bases de datos públicas y gubernamentales en línea a nivel local y nacional. La coexistencia de colecciones muy grandes y actualizadas de información fáctica junto con un medio que también es un foro de discusión y debate tiene implicaciones importantes para la esfera pública. La capacidad de los grupos de ciudadanos para debatir cuestiones políticas se amplifica enormemente con el acceso instantáneo y generalizado a hechos que podrían respaldar o refutar las afirmaciones hechas en esos debates. Este tipo de debate entre ciudadanos, respaldado por hechos disponibles para todos, podría convertirse en la base real de una posible democracia electrónica del futuro. El 1 de junio de 1993, se publicó, copió y volvió a publicar en la Red el siguiente aviso: LA CASA BLANCA Oficina de correspondencia presidencial Para publicación inmediata el 1 de junio de 1993 CARTA DEL PRESIDENTE Y VICEPRESIDENTE EN ANUNCIO DE ACCESO AL CORREO ELECTRÓNICO DE LA CASA BLANCA Queridos amigos: Parte de nuestro compromiso con el cambio es mantener a la Casa Blanca al día con la tecnología cambiante de hoy. A medida que avanzamos hacia el siglo XXI, debemos tener un gobierno que pueda mostrar el camino y predicar con el ejemplo. Hoy nos complace anunciar que, por primera vez en la historia, la Casa Blanca estará conectada con usted por correo electrónico. El correo electrónico acercará la Presidencia y esta Administración y la hará más accesible a la gente. La Casa Blanca estará conectada a Internet, así como a varios proveedores comerciales en línea, lo que nos hará más accesibles y en contacto con la gente de todo este país. No estaremos solos en esta empresa. El Congreso también está participando y se espera que mañana la Cámara de Representantes haga un interesante anuncio sobre el correo electrónico. En un futuro próximo también participarán varias agencias gubernamentales. Americans Communicating Electronically es un proyecto desarrollado por varias agencias gubernamentales para coordinar y mejorar el acceso a los activos y recursos educativos y de información del país. Esto se hará a través de comunicaciones interactivas, como el correo electrónico, y se llevará a personas que no tienen acceso a una computadora. Sin embargo, debemos ser realistas acerca de las limitaciones y expectativas del sistema de correo electrónico de la Casa Blanca. Este experimento es el primer proyecto de correo electrónico realizado a tan gran escala. Mientras trabajamos para reinventar el gobierno y optimizar nuestros procesos, el proyecto de correo electrónico puede ayudarnos a situarnos a la vanguardia del progreso. Inicialmente, se leerá su mensaje de correo electrónico y se acusará recibo inmediatamente. Se realizará un recuento cuidadoso del número recibido así como del asunto de cada mensaje. Sin embargo, la Casa Blanca aún no es capaz de enviar una respuesta personalizada por correo electrónico. Esperamos que esto suceda a finales de año. También se probarán una serie de programas basados en respuestas que permiten que la tecnología nos ayude a leer su mensaje de manera más efectiva y, eventualmente, responderle electrónicamente de manera oportuna. Estos programas cambiarán periódicamente a medida que experimentemos con la mejor manera de manejar el correo electrónico del público. Como esto nunca se ha intentado antes, es importante permitir cierta flexibilidad en el sistema en estas primeras etapas. Agradecemos sus sugerencias. Este es un momento histórico en la Casa Blanca y esperamos contar con su participación y entusiasmo por este evento histórico. Anticipamos con impaciencia el día en que el correo electrónico del público sea una parte integral y normal del sistema de comunicaciones de la Casa Blanca. Presidente Clinton Vicepresidente Gore PRESIDENT@WHITEHOUSE.GOV VICE.PRESIDENT@WHITEHOUSE.GOV Unos días después, se publicó en la red lo siguiente: CÁMARA DE REPRESENTANTES DE LOS ESTADOS UNIDOS SISTEMA DE CORREO ELECTRÓNICO CONSTITUYENTE Agradecemos su consulta al Sistema de Correo Electrónico Constituyente de la Cámara de Representantes. Actualmente, a siete miembros de la Cámara de Representantes de los Estados Unidos se les han asignado buzones de correo electrónico públicos a los que pueden acceder sus electores. Este esfuerzo representa un programa piloto que se utilizará para evaluar el impacto del correo electrónico en las oficinas del Congreso y su misión de servir a los residentes de un distrito del Congreso. Este proyecto inicial se ampliará a otros miembros del Congreso, según lo permitan las limitaciones técnicas, presupuestarias y de personal. Revise la lista de Representantes participantes a continuación y, si el Distrito del Congreso en el que reside figura en la lista, siga las instrucciones a continuación para comenzar a comunicarse por correo electrónico con su Representante. Si su Representante aún no está en línea, tenga paciencia. REPRESENTANTES DE ESTADOS UNIDOS QUE PARTICIPAN EN LA CONSTITUYENTE SISTEMA DE CORREO ELECTRÓNICO Honorable. Jay Dickey 4to Distrito del Congreso, Arkansas Habitación. 1338 Edificio de oficinas de la casa Longworth Washington, DC 20515 Honorable. Sam Gejdenson 2do distrito del Congreso, Connecticut Habitación. 2416 Edificio de oficinas de la casa Rayburn Washington, DC 20515 Honorable. Newton Gingrich Sexto distrito del Congreso, Georgia Habitación. 2428 Edificio de oficinas de la casa Rayburn Washington, DC 20515 Honorable. George Miller Séptimo Distrito del Congreso, California Habitación. 2205 Edificio de oficinas de la casa Rayburn Washington, DC 20515 Honorable. Charlie Rose Séptimo Distrito del Congreso, Carolina del Norte Habitación. 2230 Edificio de oficinas de la casa Rayburn Washington, DC 20515 Honorable. 'Pete' Stark Distrito 13 del Congreso, California Habitación. 239 Edificio de oficinas de Cannon House Washington, DC 20515 Honorable. Mel Watt 12 ° Distrito del Congreso, Carolina del Norte Habitación. 1232 Edificio de oficinas de la casa Longworth Washington, DC 20515 INSTRUCCIONES PARA LOS CONSTITUYENTES Si su Representante participa en el proyecto piloto, le recomendamos que envíe una carta o postal por correo postal a ese Representante a la dirección indicada anteriormente solicitando acceso al correo electrónico. En su correspondencia, imprima su nombre y DIRECCIÓN DE INTERNET, seguidos de su dirección postal (geográfica). Cuando su Representante reciba la carta o postal, recibirá una respuesta por correo electrónico que incluirá la dirección de Internet del Representante. Después de recibir este mensaje inicial, podrá escribirle a su Miembro del Congreso en cualquier momento, siempre que siga ciertas pautas que se incluirán en ese mensaje inicial. Somos conscientes de que es un inconveniente para los usuarios de correo electrónico tener que enviar una tarjeta postal para comenzar a comunicarse con su Representante. Sin embargo, el objetivo principal de este programa piloto es permitir que los miembros presten un mejor servicio a sus electores, y esta solicitud postal inicial es el único método seguro disponible actualmente para verificar que un usuario es residente de un distrito del Congreso en particular. Además, los electores que se comunican con su Representante por correo electrónico deben tener en cuenta que los Miembros responderán a sus mensajes de la misma manera que responden a la mayoría de las comunicaciones de los electores. Es decir, los miembros generalmente responderán a los mensajes a través del Servicio Postal de EE. UU. Este método de respuesta ayudará a garantizar la confidencialidad, una preocupación que es de suma importancia para la Cámara de Representantes. COMENTARIOS Y SUGERENCIAS No dude en enviar comentarios por correo electrónico sobre nuestro nuevo servicio a la Mesa de comentarios del Congreso, en COMENTARIOS@HR.HOUSE.GOV Haremos todo lo posible para integrar sugerencias en las próximas actualizaciones de nuestro sistema. Gracias nuevamente por comunicarse con el Sistema de Correo Electrónico Constituyente de la Cámara de Representantes. Estamos entusiasmados con las posibilidades que ofrece el correo electrónico y trabajaremos arduamente para conectar más miembros y ampliar nuestros servicios. Creemos que este programa piloto es un primer paso importante e instamos a su cooperación y continuo interés para que el programa sea un éxito. Este mensaje se actualizará según sea necesario. Honorable Charlie Rose (demócrata por Carolina del Norte) Presidente Comité de Administración de la Cámara Una semana después, el siguiente mensaje se propagó por la Red. Los acontecimientos avanzan rápidamente. PROYECTO DE LEY DE ACCESO A GPO CONVERTIDO EN LEY El 8 de junio, el presidente Clinton promulgó la ley S. 564, el proyecto de ley de acceso electrónico a la imprenta gubernamental. Ahora es P.L. 103-40. Una declaración emitida por el Presidente decía que "este importante paso adelante en la difusión electrónica de información federal proporcionará información valiosa sobre los medios más eficaces para difundir toda la información pública del gobierno". La ley establece en la Imprenta del Gobierno un medio para mejorar el acceso público electrónico a una amplia gama de información electrónica federal. El sistema proporcionará acceso en línea al Registro del Congreso y al Registro Federal, y otras publicaciones apropiadas distribuidas por el Superintendente de Documentos. También establecerá un directorio electrónico de información pública federal almacenada electrónicamente y una instalación de almacenamiento electrónico. El sistema estará disponible sin cargo para las bibliotecas depositarias; a otros usuarios se les cobrará aproximadamente el costo incremental de la difusión. La ley exige que el sistema esté en funcionamiento dentro de un año a partir de la fecha de promulgación. En un comunicado de prensa emitido por su oficina, el senador Wendell Ford (D-KY) calificó la ley como "una forma más de hacer que el gobierno sea más responsable ante el pueblo estadounidense. Esta ley pone información sobre el gobierno al alcance de la mano del público". Si viven en una comunidad rural en el este de Kentucky o en las grandes ciudades de Nueva York, San Francisco y Chicago, cualquiera podrá acceder a documentos gubernamentales a través de la computadora de su hogar o de una biblioteca depositaria local". Al concluir su comunicado de prensa, el Senador Ford destacó que esta ley es "el primer paso para crear un acceso público generalizado". Él cree que muy pronto estarán disponibles la cobertura de las audiencias del Congreso y las impresiones de los comités. En 1992, Rick Gates, director de automatización de bibliotecas de la Universidad de California en San ta Barbara, inició la tradición de la búsqueda del tesoro en Internet. Periódicamente, Gates publica una lista de preguntas en Usenet, la conferencia flotante en la que participan la mayoría de los sitios de Internet: ************************************************** ******************* * LA CAZA EN INTERNET * para enero de 1993 * (fecha límite: medianoche PST 10/01/93 * ************************************************** ******************* Bienvenidos a la primera cacería del Año Nuevo. Esta caza se está retrasando un poco debido a un virus pequeño pero tenaz (variedad basada en carbono) que me tiene hecho caca. Esta Caza tiene un máximo de 43 puntos (con el crédito extra). Me complace anunciar que las búsquedas anteriores ahora se están archivando en la Coalición para la Información en Red. Gracias a Paul Evan Peters. Los archivos están disponibles a través de ftp anónimo en: ftp.cni.org . . . en pub/net-guides/i-hunt/ . . . y el archivo Léame debería explicar exactamente lo que hay allí. También archivaré archivos con texto introductorio, consejos, reglas, historia y una lista de ganadores. También espero que muy pronto pueda publicar estos archivos en un servidor Gopher en algún lugar, para fines de distribución. Disfruten, intrépidos cazadores. Voy a volver a la cama. LAS NORMAS _________ 1. Hay un total de 12 preguntas. Las primeras 11 preguntas cuentan para su puntuación. He verificado personalmente que cada una de ellas puede responderse utilizando únicamente los recursos de la Red. Estas son preguntas artificiales. 2. La última pregunta es la pregunta misteriosa. No sé si hay una respuesta a esto en la Red. Puede que haya intentado o no encontrar uno. Estas preguntas normalmente me llegan de personas que piden información. Esta es una pregunta real. 3. Cada una de estas primeras 10 preguntas tiene un valor entre paréntesis. Este valor en puntos es mi mejor suposición sobre lo difícil que es responder esa pregunta. La escala es del 1 (fácil) al 10 (difícil). Los puntos totales de todas las preguntas aparecen en la parte superior de este mensaje. Las preguntas de crédito extra siempre valen 1, no porque sean fáciles, sino porque dan crédito extra. LA CAZA ________ 1. (7) ¿Cómo se dice "Feliz Navidad y próspero año nuevo" en checo? 2. (6) ¿Está Toyota Motor Corporation conectada a Internet? 3. (3) ¡Hola! Tengo una cuenta nueva en una máquina Unix aquí y ODIO el editor que tengo para mi correo. Se llama vi. Entonces encontré otro editor que puedo usar llamado emacs. Se supone que Emacs es personalizable, pero me las arreglé para arruinar un poco las cosas. ¿Puede decirme dónde puedo obtener algunos consejos de usuarios de emacs más experimentados? 4. (5) ¿Se puede contraer SIDA al besar? 5. (3) Leí en una revista electrónica que se celebró una conferencia en Padua, Italia, sobre modelos de señales musicales. Anoté el nombre de un contacto, "Giovanni De Poli". ¿Puedes encontrarme su dirección de correo electrónico? 6. (2) ¿Cuál es la religión principal en Somalia? 7. (4) Entiendo que se está utilizando la Red para distribuir información y fotografías de niños desaparecidos<. ¿Dónde puedo obtener más información y dónde puedo encontrar las imágenes? 8. (4) ¿Dónde puedo encontrar tablas que enumeren los valores nutritivos de diferentes alimentos? 9. (3) ¿Cuál es el texto de la 1ª Enmienda a la Constitución de los Estados Unidos? 10. (5) Sabes, obtuve mucha buena información de red enviando archivos FTP desde nnsc.nsf.net. ¿Qué tipo de computadora y sistema operativo es nnsc.nsf.net?< Crédito adicional. (1) ¿Dónde puedo encontrar la hora exacta? Si sabes cómo hacerlo, podrás encontrar la respuesta a cada una de estas preguntas utilizando las herramientas disponibles para todo usuario registrado de un nodo de Internet. Internet proporciona a cada usuario registrado acceso a tres herramientas importantes; Con este conjunto de herramientas, es posible una amplia gama de aplicaciones. Un usuario de Internet que esté iniciado en los códigos arcanos del nivel básico CMC puede utilizar estas herramientas para construir herramientas más elaboradas y personalizadas. Si el usuario de Internet sólo quiere comunicarse con la gente y obtener acceso a información valiosa sin aprender arcanos informáticos, estas herramientas fundamentales pueden ocultarse detrás de sistemas de menús más fáciles de usar. El servicio de correo electrónico, la primera herramienta y la más utilizada, es un conjunto de programas que permiten que el correo privado entre individuos y grupos se distribuya en cuestión de segundos a cualquier sitio de la red troncal de Internet y en cuestión de horas a nodos satelitales de todo el mundo. El acceso a los programas, incluidas las posibilidades para agregar archivos de texto de gran tamaño, reenviar mensajes y enviar un mensaje a todos los miembros de una lista de correo, es lo que convierte a cada ciudadano de la Red en un editor. Ell como consumidor de información. Las otras dos herramientas son telnet y ftp. Telnet es una forma de enviar un comando a su computadora host que lo conecta automáticamente a otra computadora con Internet. Si tienes la contraseña correcta, puedes interactuar con esa computadora remota en tiempo real, y muchas computadoras en la Red ponen parte de sus recursos a disposición de cualquiera que use la contraseña "anónima"; telnet es la forma en que los estudiantes de todo el mundo participan en los MUD o cómo puedo utilizar unas pocas teclas para viajar desde WELL al catálogo de la Biblioteca del Congreso. "Telnet" se utiliza como verbo en la Red, como en "telnet to well.sf.ca.us for a good time". La colección de información de la Red no está organizada como una biblioteca o cualquier otra cosa que una persona hubiera diseñado racionalmente; es más como algo que creció por sí solo. A medida que nuevos sitios se incorporan a Internet todos los días, a menudo trayendo consigo grandes colecciones de recursos accesibles en la red, el problema de realizar un seguimiento de lo que hay ahí afuera ha generado nuevas generaciones de software. Una herramienta gratuita que se está extendiendo estos días por la Red, por ejemplo, es hytelnet. Este programa, que ejecuta su computadora host de Internet, convierte la red en una serie de menús que puede navegar con las teclas de flecha del teclado de su computadora de escritorio. El nombre del comando combina una antigua búsqueda del grial en el mundo de la informática con la herramienta de Internet para saltar de una computadora a otra. HiperT La búsqueda del antiguo grial, conocida como hipertexto, fue propuesta por primera vez por Ted Nelson en la década de 1960 e implementada por primera vez por el proyecto SRI de Engelbart, como una serie enlazada de textos que podían convocar automáticamente otros textos para su visualización. Cuando encuentre una referencia o nota a pie de página en un documento de una base de datos de hipertexto, puede señalarlo y ver instantáneamente el documento fuente citado, luego volver al primer documento, si lo desea, o continuar explorando enlaces hacia otros. documentos. Toda la biblioteca está interconectada en este esquema. Cuando se expande la base de datos vinculable para incluir videos, gráficos y sonidos, el medio se convierte en hipermedia, pero la idea de enlaces que saltan de un documento a otro sigue siendo central. Por medio de un programa simple que asigna las teclas de flecha en las computadoras de la mayoría de los usuarios al programa telnet, hytelnet convirtió Internet en una especie de base de datos de hipertexto. Cuando inicio sesión en The WELL, le doy mi contraseña, obtengo acceso a la Red, puedo escribir el comando "hytelnet" y veré el siguiente menú. Debido a que el software hytelnet está disponible gratuitamente a través de la Red, millones de personas pueden usar el mismo comando para utilizar el mismo servicio. El primer menú se ve así: ¿Qué es HYTELNET? Flechas arriba/abajo MOVER Catálogos de bibliotecas Flechas izquierda/derecha SELECCIONAR Otros recursos ? para AYUDA en cualquier momento Archivos de ayuda para catálogos Interfaces de catálogo m regresa aquí Glosario de Internet q sale Comandos de pulsación de teclas HYTELNET 6.3 fue escrito por Peter Scott, Bibliotecas de la Universidad de Saskatchewan, Saskatoon, Sask, Canadá. 1992 Software Unix y VMS por Earl Fogel, Servicios de Computación, Universidad del Sur 1992 Tenga en cuenta que este nivel superior puede ocultar niveles anidados que podría tardar todo el día en navegar. Cuando decidí ver qué significa "Otros recursos", utilicé las teclas de flecha hacia abajo para mover el cursor en la pantalla de mi computadora y resaltar, luego usé la tecla de flecha derecha para ver el siguiente menú: Archie: Servicio de listado de servidores de archivo Sistemas de información en todo el campus Bases de datos y bibliografías Servidores de archivos distribuidos (Gopher/WAIS/WWW) Libros electrónicos Servicios de pago Sistemas FREE-NET Tablones de anuncios generales HYTELNET Versiones en línea Bases de datos de la NASA Servicios de información de red Whois/Páginas Blancas/Servicios de Directorio Recursos varios Sólo por el gusto de hacerlo, decidí ver qué hay disponible en "Bases de datos de la NASA" y obtuve este menú: Centro de datos astronómicos Instalación de exploración de escáner en color de la zona costera Servicios de información en línea COSMIC ENVIROnet (Servicio de información sobre el entorno espacial) Base de datos internacional CEDAR Base de datos extragaláctica de NASA/IPAC Servicio de información y datos en línea del NSSDC (NODIS) Datos de red en línea de Internet científico de la NASA (NSI) Enlace espacial de la NASA NSSDC-Centro Nacional de Datos de Ciencias Espaciales Sistema piloto de datos terrestres PDS (Sistema de datos planetarios) Space Servicio de Información de la División de Computación y Datos Sistema de información sobre estándares y tecnología Cuando consideras que podría profundizar o "bajar" en los archivos de la NASA y encontrar días o años de texto para leer y gráficos para ver y datos para estudiar, o retroceder "arriba" uno o dos niveles y buscar en las bibliografías. En línea desde todas las bibliotecas universitarias de la Red, se puede ver cómo incluso un simple menú de dos páginas como este hace posible, en un nivel muy básico, explorar y dirigir mi atención a través de los recursos de información de la Red de una manera sistemática. Los menús jerárquicos permiten navegar a través de grandes colecciones de información y concentrarse en la subcategoría específica que busca. Entonces, si los nuevos programas pueden encontrar formas de realizar un seguimiento de lo que hay en la Red, canalizarlo en las categorías adecuadas y presentarlo a los usuarios con menús, entonces realmente no importa que los recursos de información de la Red se estén expandiendo de manera tan caótica. El foco de la organización en un sistema distribuido en constante cambio como la Red resulta no estar en cómo se almacena la información sino en cómo se encuentra. La herramienta de Internet ftp significa "protocolo de transferencia de archivos" y es una forma que tiene la red de mover archivos por la red. Puede que tenga una cuenta en WELL en la que recopilo archivos para descargarlos a la computadora de mi casa, mientras visito docenas de otras computadoras en la Red, usando ftp para transferir rápidamente textos, sonidos e imágenes codificados, e incluso software para mi computadora, de varios archivos en la Red. Otras herramientas que simplifican la Red para los usuarios convierten un índice de recursos clave en un menú y usan ftp entre bastidores para mover archivos de una computadora a otra, mientras los usuarios seleccionan elementos del menú. La capacidad de realizar transferencias a muy alta velocidad de una máquina a otra multiplica los recursos disponibles para cada usuario. ¿Por qué guardar un documento en su computadora personal cuando sólo toma unos segundos recuperarlo de una computadora en Düsseldorf o Tallahassee? Lo importante es que sepa dónde encontrar esa información, o más importante, cómo saber dónde encontrar esa información. Una forma popular de ftp, el "ftp anónimo", crea una especie de ética de la Red, en la que las comunidades informáticas de la Red son aplaudidas por hacer que el material esté disponible vía ftp para los ciudadanos de la Red que no tienen las contraseñas de esas comunidades. También descentraliza la distribución de información hasta un punto que obstaculiza todos los pensamientos de control central. Tizón Cuando un periodista de Houston reveló que los sitios de Internet en Texas servían como depósitos de imágenes pornográficas (que los sitios proporcionaban, junto con todo el material de la Corte Suprema y la Biblioteca del Congreso), los archivos del notorio grupo de noticias de Usenet "alt.sex". .pictures" se trasladó instantáneamente a Finlandia. El tráfico de red a Finlandia aumentó significativamente de la noche a la mañana. La cuestión de las normas comunitarias y las imágenes sucias es clave en cuestiones de censura de contenidos, pero el punto aquí es que el concepto de "dónde" se guarda algo en línea está difundido por toda la Red en lugar de estar ubicado en uno, dos o tres lugares donde uno se encuentra. puede señalar. La Red puede utilizarse para distribuir nuevas herramientas de la Red en forma de código de programación informática, así como servicios de comunicaciones e información, lo que significa que la Red es inherentemente un medio de arranque que cambia constantemente a medida que la gente descubre e inventa nuevas herramientas y luego las utiliza. la Red para distribuirlos. Cuando la Red actualiza su propio software, la Red se utiliza para distribuir la actualización. IRC, el programa que conecta a los usuarios de Internet con "canales" de chat en tiempo real en todo el mundo, comenzó como un experimento realizado por un programador en Finlandia. Las mazmorras multiusuario se originaron en una universidad de Inglaterra. Entre los hackers originales del MIT, los que ayudaron a inventar el tiempo compartido, la ética de los hackers era que las herramientas informáticas debían ser gratuitas. Los primeros fabricantes de computadoras personales se indignaron cuando William Gates, ahora el hombre más rico de Estados Unidos, comenzó a vender BASIC, que los aficionados a las PC siempre habían distribuido gratis. La industria del software existe ahora y Microsoft es más grande que General Motors, pero la Red continúa creciendo gracias a la propiedad intelectual que programadores expertos han donado a la comunidad de la Red. Una y otra vez, los programadores han creado y proporcionado a la Red poderosas herramientas que han cambiado la naturaleza de la Red y ampliado su disponibilidad. A nivel de base, en el mundo de las BBS fuera de la Red, los programas clave que hacen posible la CMC amateur vía módem también se distribuyeron de forma gratuita o a bajo costo. Tiene sentido, incluso si planeas sacar provecho de un medio de comunicación más adelante, ceder el acceso al medio al principio, cuando estás tratando de construir una masa crítica. Las personas que construyeron los sistemas CMC querían tener una gran población de personas con quienes comunicarse; El valor que buscaban no era el valor de medir el acceso a la comunidad, sino el valor intelectual, la colectividad. bienes activos que una comunidad podría crear en conjunto. La tradición del software de arranque gratuito está viva y coleando. Ahora están disponibles, también de forma gratuita, herramientas que actúan como servidores de información personal para proteger a los usuarios de las complejidades de la Red. Al igual que los MUD, el IRC, Usenet y los programas BBS de dominio público, estas herramientas se aportan a la comunidad de la red y se propagan a través de la propia red. Digitalización Cuando empiezas a hablar de usar tu computadora de escritorio para descargar el texto real de los libros almacenados en la Biblioteca del Congreso, te topas con dos barreras. En primer lugar, sólo una pequeña fracción del material de las bibliotecas y archivos se encuentra en formato legible por máquina, y el proceso de digitalización necesario para que la información esté disponible en línea ya no es prohibitivamente costoso, pero sí requiere mucho tiempo. La Biblioteca del Congreso está creciendo mucho más rápido de lo que la tecnología actual puede digitalizar. Claramente, hasta que algún avance facilite la digitalización, la gente tendrá que elegir qué material es lo suficientemente valioso para convertirlo a formato electrónico; Incluso con estos obstáculos, la cantidad de datos que se convierten de formato analógico a digital cada día es asombrosa. Telnet a lib.dartmouth.edu y escriba connect dante en el primer mensaje si desea acceder al texto completo de la Divina Comedia de Dante y cientos de años de comentarios. O utilice el servidor de información de área amplia para encontrar la letra de esa canción que le viene a la cabeza. Propiedad intelectual La otra barrera para una Red que contenga todos los textos, fotografías y sonidos de la Biblioteca del Congreso es una cuestión menos técnica y más social: la propiedad intelectual. Muchos de los mejores libros, fotografías, letras, artículos y vídeos pertenecen a alguien. ¿Cómo se determinarán y recaudarán las regalías en un mundo donde se puede copiar cualquier cosa con solo presionar una tecla y transferir una biblioteca alrededor del mundo en un minuto? Ted Nelson, quien acuñó el término hipertexto, ideó un plan por primera vez en la década de 1960, esperando el día en que este problema social que acechaba en el corazón de la tecnología informática creciera. El plan de Nelson, llamado Xanadu, implica una base de datos de toda la literatura del mundo, incluyendo cualquier cosa que alguien quiera contribuir; los lectores podrían tener acceso a los documentos y el sistema pagaría automáticamente de sus cuentas una pequeña cantidad de dinero al autor original. El proyecto Xanadu, conocido desde hace mucho tiempo como el proyecto de software más antiguo del mundo que aún no ha producido un producto público, todavía está vivo. Y el problema todavía existe. La cantidad de información disponible o potencialmente disponible en la Red estrictamente a través de información de dominio público (aquella que fue creada con fondos públicos o cuyos derechos de autor originales han expirado) sigue siendo enorme. Y gracias a los esfuerzos de otro cruzado de la Red y sus voluntarios en todo el mundo, la literatura de dominio público, en formato de texto completo, está cada vez más disponible. Michael Hart, profesor de textos electrónicos en el Illinois Benedictine College, es el líder del Proyecto Gutenberg, cuyo objetivo es añadir diez mil volúmenes de literatura de dominio público a la Red para el año 2001. Ya han digitalizado y subido Moby-Dick, la obra de Esopo. Fábulas, Alicia en el país de las maravillas, las obras completas de Shakespeare, The Federalist Papers, el Tesauro internacional de Roget, El Libro de Mormón y muchas otras obras de dominio público. Voluntarios de todo el mundo utilizan máquinas de escaneo para convertir texto impreso en formato digital. La biblioteca duplica su tamaño cada año. Para saber si un medicamento ha sido aprobado recientemente, puede hacer telnet a fdabbs.fda.gov e iniciar sesión como bbs para conectarse a un BBS de Internet que contiene información actualizada sobre las acciones de la FDA e información para el consumidor. Hay una interfaz estilo menú para toda la información meteorológica de los Estados Unidos y Canadá ubicada en madlab.sprl.umich.edu puerto 3000. Información agrícola precisa y actualizada, informes de sismicidad, información sobre la calidad del agua, información sobre patentes, información genealógica y archivos médicos, científicos y académicos están disponibles para cualquier usuario que sepa dónde están y haya aprendido los encantamientos mágicos necesarios para trasladarlos desde el archivo de su hogar a su escritorio. Todos los arcanos y la incertidumbre hacen del Netsurfing algo alquímico. Las cosas cambian tan rápido que el folklore es la única forma confiable de descubrir qué es realmente nuevo. Si husmea un poco en la Red, o compra una de las guías impresas de la Red, encontrará que hay listas públicas de listas públicas de recursos. Los ciudadanos de la red y los autoproclamados arquitectos de la red se encargan de compilar listas de recursos, mantenerlas actualizadas y publicarlas periódicamente. Todo el mundo está de acuerdo en que existe una manguera de información que llega a través de la Red y que necesitamos encontrar formas de canalizarla. Es desorganizado, viene a un ritmo titánico y acelerado, y nuestras mentes se cierran ante todas las opciones que se nos presentan. Neto representa. Necesitamos algún tipo de intermediario entre las capacidades humanas y de la red. *** Búsqueda de información Las respuestas a la desconcertante complejidad de la Red están surgiendo de la propia Red. Archie, un juego de palabras con la palabra archivo, por ejemplo, es un programa de búsqueda de archivos desarrollado por Peter Deutsch y otros en la Universidad McGill de Montreal. Si está directamente en Internet, puede hacer telnet a uno de los servidores Archie que ahora están repartidos por todo el mundo. Si no tienes una conexión directa a Internet, pero tu red puede enviar correos electrónicos a Internet, puedes hacerlo por correo electrónico. La base de datos de Archie realiza un seguimiento de todos los archivos que se agregan a sitios de archivo público "ftp anónimos", y los sitios de archivo continúan actualizando Archie. Eso significa que Archie conoce decenas de miles de archivos repartidos en cuarenta y cinco países. Si conoce el nombre de un archivo, o parte del nombre, puede preguntarle a Archie, quien consultará su base de datos y le enviará una lista de los sitios exactos que tienen archivos que coinciden con ese nombre. He usado a Archie para explorar la red. Pídale que busque un archivo que ejemplifique el tipo de información que está buscando y luego utilice la lista de sitios devuelta por Archie en respuesta a su solicitud como una lista de lugares que probablemente tengan otra información interesante. Luego puede usar ftp para explorar los índices de archivos en esos sitios. No olvide que la potencia informática de las máquinas conectadas a la Red suele estar disponible, así como las palabras o archivos almacenados en sus bancos de memoria. Las computadoras en la Red pueden ayudar a realizar un seguimiento de la información en la Red y pueden distribuir sus índices entre sí. El problema de encontrar suficiente potencia informática para construir un software intermediario eficaz que controle las complejidades de la Red se vuelve mucho más intensivo en términos de cómputo cuando se desea buscar en la Red fragmentos de texto en lugar de sólo nombres de archivos. Otro visionario de la Red llamado Brewster Kahle concibió un potente buscador de texto que literalmente buscará en cientos de bases de datos y bibliotecas de la Red texto que contenga información específica. La herramienta, desarrollada conjuntamente por Kahle y Dow Jones, Thinking Machines, Apple Computer y KPMC Peat Marwick, está disponible gratuitamente para los usuarios de la red como WAIS (Wide Area Information Servers). Thinking Machines es una empresa de Massachusetts que fabrica ordenadores extremadamente potentes conectando en red un gran número de ordenadores más pequeños; Mantener un índice enorme y buscarlo muy rápidamente es una de esas tareas para las que se necesita una computadora extremadamente potente. Si puede mantener ese índice en una computadora Thinking Machines en Massachusetts, el programa WAIS que usa en su servidor de Internet (conocido como programa "cliente" que interactúa con el programa "servidor" WAIS en Thinking Machines) puede hacer uso del Velocidad computacional del servidor WAIS. Una de las capacidades del software WAIS es un presagio de futuros agentes de software de búsqueda de información que recorrerán la Red en busca de información. Esta capacidad se conoce como retroalimentación de relevancia. Puede pedirle a WAIS que busque en sus bases de datos información sobre un tema, por ejemplo, la jardinería japonesa. En unos segundos obtendrás una lista de cientos o miles de fuentes. Si elige tres fuentes que parecen interesantes porque tratan sobre la estética más que sobre la horticultura de la jardinería, puede pedirle a WAIS que restrinja su búsqueda. Mediante este tipo de diálogo de ida y vuelta, puede refinarla. Otros proyectos experimentales - como el proyecto Knowbots - envían servidores de software a recorrer las redes y monitorear los flujos de información que alimentan la red y los vastos conjuntos de bases de datos en línea, en busca de información específica. Vinton Cerf - uno de los creadores de ARPANET original - ha estado trabajando en la Corporación para Iniciativas de Investigación Nacional, en Reston, Virginia, creando robots de recopilación de información. Un knowbot se representa en la pantalla del usuario como un icono, un símbolo gráfico. El usuario de la computadora puede programar y activar los knowbots apuntando y haciendo clic en el ícono y los menús asociados. Esos menús presentan una serie de preguntas; Responder a esas preguntas define una estrategia de búsqueda. Luego, el software viaja a través de la red, utilizando herramientas como Archie y WAIS y cualquier otra cosa disponible, para concentrarse en el tipo de información especificada por el usuario. Los Knowbots pueden tomar decisiones mientras realizan una búsqueda y enviar clones para buscar en otras redes. Las primeras pruebas de knowbots involucran a investigadores de la Biblioteca Nacional de Medicina. La biblioteca en línea incluye cuarenta bases de datos y 80 mil millones de bits de información. Una herramienta que vi y que quería utilizar para mi propio uso era un programa llamado Rosebud que mi amigo Steve Cisler, el bibliotecario de Apple Computer, había ejecutado para él. Rosebud, que lleva el nombre, supongo, de la palabra clave de Citizen Kane, es un proyecto experimental patrocinado por Apple y Dow Jones. Es un periódico personal personalizable que busca en la red y le informa. Rosebud, ahora conocida como Applesearch, será un producto comercial. Primero, se capacita a agentes tipo knowbot llamados reporteros. Seleccionas un reportero nuevo y dices que quieres que se busquen en estos canales de noticias y en esas bases de datos cada veinticuatro minutos o veinticuatro días, cualquier referencia a comunidades virtuales. Puede variar el intervalo de búsqueda y el intervalo de informes y construir búsquedas lógicas basadas en palabras clave. Podrá crear sus propios menús de bases de datos y fuentes probables entre las que desee elegir. Y luego seleccionará a otro reportero nuevo y le dirá que busque y recupere cualquier artículo o noticia con las palabras "democracia electrónica" en el título o su bajada. Después de capacitar a tantos reporteros como necesite para realizar un seguimiento de sus temas candentes actuales o de su especialidad profesional constante, los suelta en la Red. Sus reporteros aprovecharán los recursos de la Red y utilizan sus números de cuenta para acceder a fuentes comerciales de información, buscan sólo aquellos elementos en el flujo de información que coinciden con su criterio y mantienen sus hallazgos organizados para usted. La próxima vez que abra su "periódico", Rosebud habrá organizado en la pantalla de su computadora todos los hallazgos del periodista en columnas estilo periódico, con titulares y subtítulos si es necesario. A juzgar por la proliferación actual de herramientas de la Red, parece claro que ecosistemas enteros de robots buscadores de información generados por la Red circularán por ella. Estas entidades son formalmente más parecidas a robots (autómatas es la jerga precisa) que a criaturas vivientes, pero cada vez más se diseñan autómatas para incorporar comportamientos biológicos. Los "gusanos" que pueden atacar las redes y los "virus" que molestan a los usuarios de computadoras son el lado malévolo de esta tendencia. Knowbots y Rosebud son el lado benevolente. En el entorno de una Red heterogénea y de forma libre, se encontrarán ambos tipos. Cómo proteger a la comunidad de los peligros de ataque sin destruir la apertura que hace que la comunidad sea valiosa es un problema social, al igual que el problema de quién debería pagar por el acceso a este conjunto cada vez más poderoso de herramientas de conocimiento. Gopher es otra herramienta más que surgió de la Red, esta vez del entorno Campus Wide Information System. No se parece tanto a un agente que corre y encuentra lo que necesitas, como lo hace un knowbot. Gopher se parece más a uno de esos mapas estilizados que permiten a las personas orientarse en los sistemas de metro de las principales ciudades. Gopher es un mapa inteligente que puede llevarte a cualquier lugar que te muestre; todo lo que tienes que hacer es señalar. Ahora que tantas universidades están utilizando protocolos de Internet para vincular los numerosos recursos informáticos ubicados en la mayoría de los campus, los estudiantes que no tienen conocimientos de informática deben tener una forma de encontrar información relevante para sus estudios. Gopher, desarrollado en la Universidad de Minnesota y llamado así por su mascota, es una forma de eliminar el telnetting y el ftping que un estudiante necesita hacer para encontrar un recurso. Gopher oculta el incomprensible lenguaje de comandos sustituyendo la sintaxis de telnet y ftp por menús y comandos abreviados. . A medida que la herramienta gopher se propaga por la Red, más y más sitios añaden sus propios documentos e índices al espacio gopher mundial. Ahora, con un software de cliente especial para su computadora host, puede literalmente señalar mapas de recursos y decirle a su computadora que lo transporte allí. La información disponible a través de la Red no se limita a las enormes cantidades de datos que se recogen en bases de datos y permanecen allí hasta que se encuentran. La Red recibe constantemente información y los sensores de entrada están proliferando. La Red está creciendo a través de muchas corrientes de información diferentes y separadas, del mismo modo que los grandes ríos crecen a partir de la acumulación de afluentes independientes. A medida que redes enteras se unen a Internet, sus bibliotecas en línea quedan disponibles. A medida que se digitaliza más información impresa, más información estará disponible. Y ahora, las noticias constantes y evanescentes, las noticias enviadas por cable de sus corresponsales internacionales, las últimas cotizaciones bursátiles (ríos continuos de información) están disponibles a través de la Red. Internet ahora le llevará hasta las puertas del Dow Jones u otros servicios de pago por información; Aún tienes que abrir una cuenta en el servicio de pago para tener acceso a él. El notable grado de creación de herramientas ciudadanas en la Red, particularmente herramientas que permiten a segmentos cada vez más amplios de la población hacer uso de los recursos de la Red, es un argumento de facto para mantener una Red ampliamente accesible y abierta a la experimentación ciudadana. Los mecanismos de la Red respaldan herramientas creadas por los ciudadanos para que las personas hablen entre sí, así como herramientas que permiten a las personas encontrar información. Las fichas biográficas que más interesan a los internautas en sus computadoras host generalmente se pueden buscar a distancia, mediante el comando "dedo remoto". Varios tipos diferentes de páginas blancas electrónicas y otros servicios ayudan a las personas a encontrar las direcciones de otras personas. Si localiza a un usuario en un sistema remoto que está en su sistema host al mismo tiempo que usted está en línea con su sistema host, pueden chatear en tiempo real, solo ustedes dos, con el programa de conversación; la pantalla se divide horizontalmente, por lo que las palabras que escribe se muestran encima de la línea y las palabras que escribe la otra persona se muestran debajo de la línea. Puede utilizar Internet Relay Chat para sintonizar uno de las docenas de diferentes canales de chat entre usuarios de Internet de veinte países diferentes. Puedes hacer telnet a un MUD y comunicarte a través de los comandos disponibles en ese mundo imaginario. Puede hacer telnet a uno de los sistemas BBS de tamaño mediano que están empezando a surgir en Internet, como WELL. O puede participar en la conversación más importante del momento, la anarquía laboral conocida como Usenet, que está disponible a través de Internet pero viaja fuera de los límites de Internet cuando es necesario. La información y el acceso a la información es un asunto complicado. Los bibliotecarios y otros especialistas cuentan con un conjunto de herramientas y una sintaxis para abordar los problemas bien conocidos que encuentran las personas al intentar dar sentido a grandes cantidades de información. El arte y el oficio de crear herramientas a partir de los recursos de la Red para ayudar a darles sentido está muy avanzado. La comunicación de persona a persona es un asunto más complicado. Los humanos se comunican en grupos por diversas razones. La comunidad puede estar en el centro de esas razones en cualquier sociedad que espere perdurar, pero no es la única razón por la que se comunican grupos de personas. La esencia de CMC como medio de comunicación humana son las capacidades de muchos a muchos. La idea de una conferencia informática surgió del trabajo que estaban realizando Engelbart y otros en la construcción de las primeras herramientas de pensamiento basadas en computadora. La capacidad de cualquier grupo para pensar juntos durante un período de tiempo sobre una serie de temas distintos y enfocados fue la primera de varias aplicaciones importantes de la comunicación de muchos a muchos que se utilizaron. Pero CMC no se detuvo ahí. Este nuevo medio es el resultado de una transformación de otras tecnologías, realizada por personas que tenían un propósito diferente al que motivó a los creadores de las tecnologías habilitadoras. Una red que fue diseñada originalmente para sobrevivir a un ataque nuclear evolucionó hasta convertirse en una herramienta de pensamiento ciudadano, y las conversaciones estructuradas en la red entre personas de tantas culturas diferentes surgieron de la planificación de emergencia nacional. La transformación de las comunicaciones de muchos a muchos no está completa; Los experimentos que los grupos están realizando en la Red hoy influirán en las generaciones de herramientas CMC que dominarán la Red en el futuro. La Red no es sólo Internet. Se podrían cerrar todos los hosts de Internet hoy en día y millones de personas seguirían encontrando formas de intercambiar correos electrónicos y grupos de noticias. La Red también es parcialmente una red de ciudadano a ciudadano altamente redundante que creció por sí sola, utilizando los resultados de la investigación de ARPA para crear algo más parecido a una cultura de fanáticos que a una élite militar-industrial. Las partes de la Red que surgieron de ARPANET son la corriente principal y definitivamente los líderes tecnológicos, pero no son los únicos afluentes importantes que contribuyeron a la Red actual. Las otras dos corrientes confluentes son el movimiento de base conocido como sistemas computarizados de tablón de anuncios (BBS), que despegó en la década de 1980, y la historia de los sistemas de conversación en grupo durante las últimas décadas, que culminaron en Usenet, el más grande, libre y ruidoso. hasta ahora. -------------------