04/03/2024

¿Quién no ha usado internet alguna vez?

TIMOTHY «TIM» JOHN BERNERS-LEE

Seguramente leas el nombre de esta persona y no te diga nada. No te preocupes, es normal. Aunque yo pienso que no debería serlo. Sueles recordar quién inventó la bombilla1809: Humphry Davy coloca una fina tira de carbón entre los dos polos de una pila. Se considera el origen de la bombilla. 1840: Warren de la Rue coloca un filamento de platino en el interior de un tubo de vacío. Logra aumentar la duración de la luz, pero sus costes eran excesivos. 1875: Henry Woodward y Matthew Evans se hacen la patente de la bombilla, que era básicamente la misma que hacía tres décadas. 1879: Joseph Wilson Swan presenta una bombilla de cristal sin aire, cables de platino y un elemento emisor de luz de carbono, que no duraba demasiado en una instalación real. 1880: Thomas Edison, tras comprar la patente de Woodward y Evans, presenta una bombilla con un filamento de bambú carbonatado que llegaba a las 600 horas de duración. Nace el primer modelo realmente comercial. 1913: Irving Langmuir inventa las luces de neon llenando de ciertos gases el interior de la bombilla. 1997: Isamu Akasaki, Hiroshi Amano y Shuji Nakamura logran crear la primera lámpara LED (led emitting diode) azul de alto brillo., la radio Nikola Tesla patentó en 1891 la bobina de inducción, un circuito que genera electricidad de baja corriente y alto voltaje que se puede utilizar para la transmisión sin cables y que se usa de manera habitual en radios, entre otros aparatos. Guillermo Marconi estudió los trabajos de sus predecesores como James Clerk Maxwell ─autor de la teoría clásica de la radiación electromagnética─, Hertz, etc. y patentó el primer aparato de radio en 1897, según señala la Fundación Nobel., la electricidad¿Cuándo se inventó la electricidad?Los primeros datos nos llevan a la época de los griegos cuando descubrieron la electricidad estática. Pero el estudio de la electricidad se remonta a la década de 1550. En el año 1600 un médico inglés llamado William Gilbert acuño el término de electricidad para identificar la fuerza que ejercen dos sustancias cuando qué se frotan una contra la otra. En cambio, los experimentos de Benjamín Franklin se produjeron en el año 1752. Los experimentos de Nikola Tesla, Thomas Edison o Alexander Graham Bell tuvieron lugar durante el siglo XIX. En 1800 Volta inventó la pila voltaica y posteriormente, en 1879 Edison invento la bombilla. , el submarinoIsaac PeralNacido el 1 de junio de 1851 en la ciudad española de Cartagena, Isaac Peral se convirtió, en 1888, en el inventor del primer submarino propulsado con baterías. National Geographic, la aviaciónHermanos WrightLos hermanos Wright, Wilbur (1867-1912) y Orville (1871-1948), fueron dos aviadores, ingenieros, inventores y pioneros de la aviación, generalmente nombrados en conjunto, y reconocidos mundialmente como los que inventaron, construyeron y volaron el primer aeroplano del mundo de forma exitosa, aun cuando existe una cierta controversia sobre ello. Wikipedia y me parece que poco más. Si estás leyendo esta entrada es gracias a lo que este programador hizo. Dio a Internet una forma de representar la información, creando un conjunto de programas que formarían todo un ecosistema que permitiría las personas comunicarse de forma simple y amena.

Berners-Lee y su WWW
Berners-Lee y su WWW

Berners-Lee nació en 1955 en Londres, Inglaterra. Sus padres fueron matemáticos que trabajaron en uno de los primeros ordenadores comerciales, el Ferranti Mark 1Ferranti Mark IEl Ferranti Mark I, también conocido como el Computador Electrónico de Mánchester (Manchester Electronic Computer) fue el primer computador electrónico comercialmente disponible de propósito general del mundo. La primera máquina fue entregada a la Universidad de Mánchester en febrero de 1951, antes que la UNIVAC I, que fue entregada a la Oficina de Censos de Estados Unidos un mes más tarde. Wikipedia Ferranti Mark I, comercializado en la ciudad de Mánchester. Sus padres le sirvieron de inspiración ya que eran grandes amantes de la lectura y preferían este medio de aprendizaje a cualquier otro como la televisión.

Mis padres eran matemáticos, pero también les entusiasmaba, les interesaba y, por supuesto, fomentaban la lectura. Probablemente, la ausencia de televisión durante la mayor parte de mi crianza debe de haber tenido muchos efectos positivos. Cada vez que estoy más convencido de que perjudica {la televisión}. Como le digo a mis hijos, ver la televisión tendré en el cerebro un pequeño tapón. Berners-Lee, Visionary of the Internet, 2007

Posteriormente elegiría estudiar física en Queen’s College de Oxford. Aunque desde muy joven estaba indeciso entre elegir matemáticas, que se le daba muy bien desde pequeño o seguir una carrera de ingeniería electrónica, pues le encantaba aplicar sus conocimientos:

Se me daban bien las matemáticas y disfrutaba con ellas, pero, por otro lado, lo que hacía en casa de construir cosas de electrónica. Así que eso era ingeniería electrónica. Y estaba desgarrado por esos dos caminos. Así que pensé que la física estaría entre las matemáticas, por un lado, siendo más teórica, y la ingeniería, más práctica, por otro. Esa fue, creo, la lógica que me llevó a solicitar hacer física en Oxford, y descubrí que era algo completamente diferente. No sabía lo que era realmente la física y es una asignatura totalmente separada por derecho propio. Está relacionada con ambas. También disfruté mucho de la física y, en cierto modo, quizás acabo siendo una muy buena elección. Berners-Lee, MIT 150 | Timothy J. Berners.Lee, 2010, pág. 1

Se graduó en 1976 y trabajó en diversas compañías de software como programador. Ya había en aquella época bastantes compañías que necesitan personas con conocimiento en programación para «darle instrucciones» al hardware que estaba surgiendo como, por ejemplo, los microcontroladores.

Nunca obtuvo otro grado académico superior, ni un máster, ni un doctorado. Eran los años de la llegada de los ordenadores, muchas empresas necesitan personas que pudieran operarlos y crear programas para ellos. Estuvo trabajando dos años en un lector de barras (los típicos que vemos en cualquier producto que compramos), pero en este caso era lectores de barras para libros. Diseñó la electrónica del dispositivo junto al programa que tenía instalado para funcionar. Es decir, conoció ambos mundos, softwareSoftwareVoz ingl.1. m. Inform. Conjunto de programas, instrucciones y reglas informáticas para ejecutar ciertas tareas en una computadora. y hardwareHardwareVoz ingl.1. m. Inform. equipo (‖ conjunto de aparatos de una computadora). .

Tiempo después, en 1978, Berners-Lee cambiaría de trabajo y se incorporó a D. G. Nash, donde trabajó en el programa de tipografía para las impresoras que vendía la compañía. Estaba emocionado por todo lo que podía hacer.

En 1980, entraría a trabajar como consultor independiente para el CERNOrganización Europea para la Investigación NuclearEs una organización de investigación europea que opera el laboratorio de física de partículas más grande del mundo. La organización tiene 22 estados miembros —Israel es el único país no europeo con una membresía plena concedida— y está oficialmente observado por las Naciones Unidas. El laboratorio, también llamado con el acrónimo CERN, está situado en Suiza cerca a la frontera con Francia, entre la comuna de Saint-Genis-Pouilly (en el departamento de Ain) y la comuna de Meyrin (en el cantón de Ginebra). Como instalación internacional que es, el CERN no está oficialmente bajo jurisdicción francesa ni suiza. Los estados miembros contribuyen conjunta y anualmente con 1 000 millones de CHF (aproximadamente 664 millones de euros o 1 000 millones de dólares). Wikipedia. Sería el momento más emocionante por la innovación y lo que logró crear.

LA INVENCIÓN DE LA WORLD WIDE WEB (WWW)
Su estancia en el CERN fue breve, tan sólo de seis meses en 1980. Propuso el proyecto basado en el concepto de hipertexto, que sería el predecesor de la WWW, llamado ENQUIREENQUIREENQUIRE fue un proyecto de software escrito en la segunda mitad de 1980 por Tim Berners-Lee, quien posteriormente crearía el World Wide Web en 1989. ENQUIRE tenía algunas ideas iguales al Web, como por ejemplo la web semántica. Sin embargo, tenía bastantes diferencias, como por ejemplo, que no estaba pensado para destinarse al público. ENQUIRE estaba escrito en el lenguaje de programación Pascal, implementado en hardware de Norsk Data. Según el propio Berners-Lee, el nombre procedía de una novela titulada Enquire Within Upon Everything, en español «Preguntando de Todo Sobre Todo». Wikipedia. Pero ¿qué es el hipertexto? Son documentos de texto que se muestran en una pantalla de ordenador, los cuales cuentan con hiperenlaces que permiten «navegar» entre ellos.
El hipertexto es una estructura no secuencial que permite crear, agregar, enlazar y compartir información de diversas fuentes por medio de enlaces asociativos y redes sociales. El hipertexto es texto que contiene enlaces a otros textos. El término fue acuñado por Ted Nelson alrededor de 1965.
La forma más habitual de hipertexto en informática es la de hipervínculos o referencias cruzadas automáticas que van a otros documentos (lexías). Si el usuario selecciona un hipervínculo, el programa muestra el documento enlazado. Otra forma de hipertexto es el stretchtext que consiste en dos indicadores o aceleradores y una pantalla. El primer indicador permite que lo escrito pueda moverse de arriba hacia abajo en la pantalla.
El hipertexto no está limitado a datos textuales, se pueden encontrar dibujos del elemento especificado o especializado, sonido o vídeo referido al tema. La World Wide Web es la red de hipertexto más amplia y popular. El programa que se usa para leer los documentos de hipertexto en la web se llama navegador, browser, visualizador o cliente, y cuando el lector o usuario sigue un enlace, se dice que está navegando por la web. El hipertexto es una de las formas de la hipermedia, enfocada en diseñar, escribir y redactar texto en un medio.
Solo utiliza texto y exhibe la información en un formato no secuencial, abarca muchas formas de lectura, dando la posibilidad de elegir los caminos para lograr diferentes resultados, los datos se almacenan en una red de nodos conectados por enlaces.

Esto es lo que hacemos hoy en día en Internet cuando vamos haciendo clic en cada sección de un sitio web. Navegando. Esta fue una de las primeras ideas de Berners-Lee para hacer la vida más fácil de los investigadores del CERN, o sea, que se comunicaran rápida y fluidamente.

Entre 1981 y 1984 trabaja la compañía Image Computer Sustems, donde estuvo a cargo de diseñar e implementar software para diferentes tipos de impresoras, algo en lo que ya tenía experiencia. A finales de 1984 regresa al CERN a tiempo completo. Es en este momento donde empieza a trabajar en un sistema de hipertexto, algo que les seguía rondando la cabeza desde su trabajo en ENQUIRE, pero con el apoyo total por parte del CERN.

La idea inicial de Berners-Lee era tener un sistema de documentación virtual que, al hacer un simple clic, pudiera llevar a otro documento, como una referencia. Desde un comienzo, explicar dicho funcionamiento otras personas del CERN fue difícil, pues, como cualquier innovación, tiende a existir una resistencia al cambio, a un cambio de paradigma. Imagínate lo que significaba explicar esto a los no sabían lo que era una computadora. Aunque unos pocos lo entendieron y eso fue suficiente para que se fuera corriendo la voz.

Ahora bien, para poder ver los documentos a través de una «dirección», es necesario tener la plataforma, el ecosistema que permite comunicar «bytes»ByteByte (B) es la unidad de información de base utilizada en computación y en telecomunicaciones, y está compuesta por un conjunto ordenado de ocho bits, por lo que en español también se le denomina octeto. Wikipedia. Esto sería Internet. Años antes, Vint CerfVinton «Vint» Gray Cerf Vinton «Vint» Gray Cerf Wikipedia y otros idearon el protocolo TCP/IPModelo TCP/IPEl modelo TCP/IP es usado para comunicaciones en redes y, como todo protocolo, describe un conjunto de guías generales de operación para permitir que un equipo pueda comunicarse en una red. TCP/IP provee conectividad de extremo a extremo especificando cómo los datos deberían ser formateados, direccionados, transmitidos, enrutados y recibidos por el destinatario. Para conseguir un intercambio fiable de datos entre dos equipos, se deben llevar a cabo muchos procedimientos separados. El resultado es que el software de comunicaciones es complejo. Con un modelo en capas o niveles resulta más sencillo agrupar funciones relacionadas e implementar el software modular de comunicaciones. Las capas están jerarquizadas. Cada capa se construye sobre su predecesora. El número de capas y, en cada una de ellas, sus servicios y funciones son variables con cada tipo de red. Sin embargo, en cualquier red, la misión de cada capa es proveer servicios a las capas superiores haciéndoles transparentes el modo en que esos servicios se llevan a cabo. De esta manera, cada capa debe ocuparse exclusivamente de su nivel inmediatamente inferior, a quien solicita servicios, y del nivel inmediatamente superior, a quien devuelve resultados. Wikipedia (Transmission Control Protocolo / Internet Protocol), que es el corazón de Internet, ya que permite la comunicación entre distintos ordenadores, aunque estén kilómetro de distancia. Pero eso no es suficiente, faltaba el mecanismo que permiten asignar recursos a Internet (ordenadores) a un nombre, ya que no es útil y práctico a ceder a ellos con IP, porque nadie se lo podría saber de memoria. Así, Paul MockapetrisPaul MockapetrisPaul MockapetrisWikipedia sería el responsable de crear el protocolo de DNSSistema de nombres de dominioEl sistema de nombres de dominio (Domain Name System o DNS, por sus siglas en inglés) es un sistema de nomenclatura jerárquico descentralizado para dispositivos conectados a redes IP como Internet o una red privada. Este sistema asocia información variada con nombres de dominio asignados a cada uno de los participantes. Su función más importante es «traducir» nombres inteligibles para las personas en identificadores binarios asociados con los equipos conectados a la red, esto con el propósito de poder localizar y direccionar estos equipos mundialmente. Wikipedia (Domain Name System), que permite asignar un nombre a una IP.

Berners-Lee también se encargó de diseñar la representación de cómo visualizar haríamos y es que deberíamos a la información por medio de Internet. O lo que es lo mismo, los sitios web. En 1989 comenzó a circular dentro del CERN un documento titulado Information Management: A Proposal [Gestión de la información: una propuesta], escrito por Berners-Lee, que es el primer bosquejo de lo que sería la web (WWW). En este documento se centraba en el problema de pérdida de información, pues en el CERN, por aquel tiempo, había una gran rotación de personal, lo que no fomentaba tener la información ordenaba.

Este problema, Berners-Lee presentó la idea de «sistemas de información vinculados» como una solución que permitiera organizar y aumentar la información de manera amigable. Distintos documentos esparcidos en la «web» que podían vincularse unos a otros, como recorrer el índice de un libro (de hecho, esa fue la analogía para el concepto de «navegar», pues en un libro la persona va ojeando a través del).

Cuando la web nació ya existía un sistema operativo: UNIXUnixUnix (registrado oficialmente como UNIX®) es un sistema operativo portable, multitarea y multiusuario; desarrollado en 1969 por un grupo de empleados de los laboratorios Bell de AT&T. Wikipedia. Por lo tanto, la web desde un comienzo mantuvo la filosofía muy cercana a la que los creadores de UNIX Internet aspiraban. En el caso de UNIX, diseñar un sistema que fuera capaz de construirse y recombinarse con herramientas ya existentes; y en el caso de Internet, mantener una compatibilidad a través del uso de protocolos de comunicación.

EL ECOSISTEMA DE LA WEB
¿Cuál es el medio o software que utilizamos para acceder a un sitio web? Un simple navegador. Berners-Lee diseñó e implementó, un año después un navegador llamado WordWideWeb al que posteriormente se denominaron Nexus para evitar confusiones, que se ejecutaban en el sistema operativo NeXSTEP, derivado de UNIX.

También nos hace falta un servidor web, el lugar donde va a estar alojado el contenido de todo lo que veamos en un sitio web; a éste se le llamó CERN HTTPdCERN httpdCERN httpd (más tarde también conocido como W3C httpd) fue uno de los primeros, ahora descontinuado, servidores web (HTTP) daemon originalmente desarrollado en CERN desde 1990, por Tim Berners-Lee, Ari Luotonen y Henrik Frystyk Nielsen. Implementado en C, fue el primer software para servidores web. Wikipedia, y fue obra de Berners-Lee, junto a Ari LuotonenAri LuotonenAri Luotonen es un desarrollador de software y autor finlandés. Estudió un máster en la Universidad Tecnológica de Tampere, pero acortó sus estudios con una licenciatura equivalente en Informática. En julio de 1993 se trasladó a Ginebra para trabajar en el CERN. Allí, escribió gran parte del httpd del CERN, especialmente el soporte de caché HTTP. Además, Luotonen contribuyó a la implementación de numerosas aplicaciones CGI, siendo la más famosa el WIT - W3 Interactive Talk. En septiembre de 1994, Luotonen comenzó a trabajar en Mosaic Communications, fundada unos meses antes. Mosaic se convertiría dentro de dos meses, en noviembre de 1994, en la renombrada Netscape Communications Corporation. Ari Luotonen y Henry Frystyk NielsenHenrik Frystyk NielsenHenrik Frystyk NielsenWikipedia en inglés, ambos ingenieros del CERN, y fue escrito en el lenguaje de programación CC (lenguaje de programación)C es un lenguaje de programación de propósito general : originalmente desarrollado por Dennis Ritchie entre 1969 y 1972 en los Laboratorios Bell, como evolución del anterior lenguaje B, a su vez basado en BCPL. Al igual que B, es un lenguaje orientado a la implementación de sistemas operativos, concretamente Unix. C es apreciado por la eficiencia del código que produce y es el lenguaje de programación más popular para crear softwares de sistemas y aplicaciones. Se trata de un lenguaje de tipos de datos estáticos, débilmente tipado, de medio nivel, que dispone de las estructuras típicas de los lenguajes de alto nivel pero, a su vez, dispone de construcciones del lenguaje que permiten un control a bajo nivel. Los compiladores suelen ofrecer extensiones al lenguaje que posibilitan mezclar código en ensamblador con código C o acceder directamente a memoria o dispositivos periféricos. Wikipedia .

Básicamente un sitio web muestra texto. ¿Cómo se muestra este texto? Usando HTMLHTML (Lenguaje de Marcas de Hipertexto, del inglés HyperText Markup Language) es el componente más básico de la Web. Define el significado y la estructura del contenido web. Además de HTML, generalmente se utilizan otras tecnologías para describir la apariencia/presentación de una página web (CSS) o la funcionalidad/comportamiento (JavaScript). «Hipertexto» hace referencia a los enlaces que conectan páginas web entre sí, ya sea dentro de un único sitio web o entre sitios web. Los enlaces son un aspecto fundamental de la Web. Al subir contenido a Internet y vincularlo a las páginas creadas por otras personas, te conviertes en un participante activo en la «World Wide Web» (Red Informática Mundial). Mozilla, que es la forma que nos permite organizar el texto en un sitio web: los párrafos, las cabeceras, las imágenes, los medios, los vínculos o enlaces, etc. HTML significa Hyper Text Markup Language [Lenguaje de marcado de hipertexto]. No está considerado un lenguaje de programación pues no tiene instrucciones de control, en cambio, es un lenguaje de marcado, de especificación de contenido.

Para llevar todo esto a cabo, nos hace falta utilizar el protocolo HTTPProtocolo de transferencia de hipertextoHTTP es un protocolo sin estado, por lo que no guarda ninguna información sobre conexiones anteriores. El desarrollo de aplicaciones web necesita frecuentemente mantener estado. Para esto se usan las cookies, que es información que un servidor puede almacenar en el sistema cliente. Esto le permite a las aplicaciones web instituir la noción de sesión, y también permite rastrear usuarios, ya que las cookies pueden guardarse en el cliente por tiempo indeterminado. Wikipedia que fue creado por Berners-Lee en 1991 y que sería presentado en el documento que tendría el nombre de «HTTP V0.9». Con este protocolo se podía acceder al documento HTML a través de una dirección, URL, que solicitaba la información al servidor web y que posteriormente, este devolvía.

Como se puede observar, desarrollar la WWW no sólo es un programa, sino un conjunto de programas y protocolos (navegador, servidor web, lenguaje de marcado, protocolo HTTP, etc.) que interactúan entre sí bajo otros sistemas ya existentes (protocolo TCP/IP, sistema operativo). Berners-Lee no sólo fue un gran conceptualizado, sino también un gran programador capaz de plasmar sus ideas en algo operativo. Además hubo gente como Rober CailliauRobert CailliauRobert CailliauWikipedia que algunos años, 1997, antes había presentado un sistema de hipertexto.

Berners-Lee tardó aproximadamente un mes en desarrollar el primer navegador web en un ordenador NeXTOrdenador NeXT, que incluía un editor integrado que podía crear documento de hipertexto. Instaló el programa en su ordenador y en el de Cailliau, y ambos se comunicaron con el primer servidor web del mundo en info.cern.ch el 25 de diciembre de 1990. Añadir la guía telefónica del CERN en línea fue el primer proyecto que abordaron juntos. Así se comenzó a masificar el uso de sitios web en el CERN (livinginternet).

EL CONSORCIO W3C
En 1994, Berners-Lee dejo el CERN para ocupar una plaza como profesor en el MIT. Ahí es donde comenzarían sus esfuerzos por estandarizar todo el ecosistema de la web; el primer paso fue fundar el World Wide Web Consortium (W3C). Además del MIT, el consorcio contó con el apoyo de la Comisión Europea y de DARPA (Defense Advanced Research Projects Agency [Agencia de Proyectos de Investigación Avanzada de Defensa]), esta última ya había estado detrás de ARPANET, un predecesor de Internet.

La W3C desempeñó un papel importante en la adopción del lenguaje de marcado XML para manipular datos, también el más popular en la actualidad: JSON. Ambos estándares usados para transferir información estructurada en la web. O la incorporación de HTML 5, que trajo consigo nuevas etiquetas para manipular datos, como por ejemplo, multimedia, y corregir errores de las versiones anteriores del lenguaje:<footer>, <header>, <nav>, <section>, <main>, etc., fueron añadidas, pues ante todo se tenía que hacer con la etiqueta <div>, lo cual lo volvía confuso y rompia la semántica. Ahora el código de HTML 5 es más simple de leer.

WEB SEMÁNTICA
Actualmente muchos buscadores y han mejorado la búsqueda semántica, o sea, poder interpretar lo que el usuario busca más allá de una simple coincidencia de palabras. Pero aún falta mucho para que se parezca a la humana.

Si por ejemplo escribimos: ¿cuál es mi palabra favorita? tenemos que responder primero a un montón de preguntas como cuál es tu idioma, donde vives, cuál es tu nivel de educación y un largo etc. son muchas preguntas que el sistema debe conocer, a priori, para intentar hacer una interpretación semántica que sea efectiva y adecuada.

Un área que se encarga de este tema se conoce como PLN (procesamiento del lenguaje natural): estoy en lenguaje natural, su semántica y se enmarca en la inteligencia artificial. Berners-Lee, alrededor de 2001, definió la web semántica como una extensión de la web actual en la que la información de un significado bien definido, lo que permite a los ordenadores y a las personas trabajar en cooperación. Esto no quiere decir que la web semántica trate de entender los datos, más bien se trataría de entrelazar, conectar, asociar datos, para que las personas los tengan disponibles y puedan, si es posible, entenderlos.

Los ordenadores no pueden «entender» los datos como lo hacen las personas. La web semántica no trata de «entender» los datos, sino de ponerlos en la red para que podamos acceder a ellos y utilizarlos. Hay muchísimos datos, y por eso algunos la llaman la «la web de datos» o la «web profunda», es decir, que no son realmente accesibles porque sólo podemos explorarlo a través de sitio web que tienen bases de datos detrás. Pero lo documento, los extractos bancarios, los rollo de película, etc., También son archivos de datos. La web semántica consiste en llevar los datos a la web, y los datos de la «web profunda» pueden exponerse como un lenguaje. Tenemos RDFResource Description FrameworkEl Marco de Descripción de Recursos (del inglés Resource Description Framework, RDF) es una familia de especificaciones de la World Wide Web Consortium (W3C) originalmente diseñado como un modelo de datos para metadatos. Ha llegado a ser usado como un método general para la descripción conceptual o modelado de la información que se implementa en los recursos web, utilizando una variedad de notaciones de sintaxis y formatos de serialización de datos. Wikipedia, o Resource Description Framework [Marco de descripción de recursos], como lenguaje de datos y hemos desarrollado un lenguaje de consulta llamada Sparql (pronunciado «esparcle»).

en cuanto a compartir información e imitar la asociación humana de ideas a través de la vinculación de información, la World Wide Web se basa en las ideas y el trabajo de personas como Vannevar BushVannevar BushVannevar BushWikipedia y Doug EngelbartDouglas Carl Engelbart Douglas Carl Engelbart Wikipedia. La web de hipertexto nos ofrece un espacio de información común: información global al alcance de un clic. La web semántica va más allá, proporcionando una red de datos, pero también permitiendo el análisis automático del contenido de los datos RDF.

An interview whit Tim Berners-Lee, entrevistado por Sarah Powell, 2006

Los metadatosMetadatosPara varios campos de la informática, como la recuperación de información o la web semántica, los metadatos en etiquetas son un enfoque importante para construir un puente sobre el intervalo semántico, ya que cualquier recurso tiene, cuando está almacenado conjuntamente con otros, la necesidad de ser descrito para facilitar las búsquedas que pudieran tratar de encontrarlo a partir de sus características distintivas. Esto es cierto para cualquier tipo de recurso, tanto para un vídeo como para un libro en una biblioteca o para un hueso en el armario de un paleontólogo. El concepto de metadatos es anterior a Internet y a la web, si bien es cierto que las nuevas necesidades de búsqueda de información han suscitado un interés por las normas y prácticas de metadatos hasta entonces desconocido. Wikipedia , en general, fueron los grandes ausentes de la primera versión de la web esto dificultaba los motores de búsqueda encontrar información básica, como la fecha en que se escribió un artículo, la persona que lo escribió, sobre qué tema escribió, etc. La web semántica intenta solucionar aquello permitiendo a los creadores de sitios web crear datos bien etiquetados, jerarquizados, para poder aplicar mayor análisis sobre ellos.

Así, la web semántica permite, en primera instancia, hacer más «inteligentes» los motores de búsqueda, poder, en definitiva, encontrar mejores resultados de lo que buscamos. Sin embargo, no debemos ser ingenuos, tal avance en la tecnología puede traer una contrapartida, por ejemplo, ¿qué tipo de información compartimos? De ello también se ha ocupado de Berners-Lee.

NOTICIAS FALSAS (FAKE NEWS) Y SOLID
Todos los usuarios de Internet, y en particular de las redes sociales, estamos expuestos a un diluvio de noticias que, en muchos casos, son falsas (fake news). Creadas con doble intenciones o, simplemente, para provocar ruido. El problema objetivo es cómo podemos validar o crear un sistema que produzca la menor cantidad de información falsa, o incluso, información de mala calidad, en suma, desinformación. Las consecuencias pueden ser nocivas para la sociedad y más en temas tan heterogéneosHeterogéneo, aDel b. lat. heterogeneus, y este del gr. ἑτερογενής heterogenḗs.1. adj. Compuesto de partes de diversa naturaleza. que van desde la política hasta la salud.

La meta inicial de Berners-Lee era la de crear un ecosistema neutral, donde cualquier persona pueda comunicarse sin que esto pueda ser un perjuicio para los usuarios, viéndose amenazado por una falta de control en varios aspectos, ya que las noticias falsas son muy abundantes. Esta se alimentan de nuestra información personal, que están constantemente de adquirir conocimiento de nuestro comportamiento. Muchos sitios web se aprovechan de ello para ofrecernos contenido con la seguridad de que haremos clic. Todo ello sustentado en la técnica de ciencias de datos que mejoran el comportamiento de los algoritmos para difundir información falsa en pos de obtener beneficios, desde económicos hasta políticos.

La web es una tecnología que, como es lógico, no tiene deseos ni intenciones, es neutral. Por eso Berners-Lee se ha dedicado a hacer comprender a las grandes compañías de Internet que deben ser conscientes del poder que tienen al poseer la capacidad de controlar los datos de las personas o al menos, de sus clientes.

Como el problema era demasiado grande, surgió la iniciativa Contrato para la web, un plan de acción global para hacer que nuestro mundo en línea sea seguro y propicio para todos [Contract for the Web, A global plan of action to make our online world safe and empowering for everyone]. Esta iniciativa lista una serie de principios para distintos roles de la sociedad: gobiernos, compañías y ciudadanos. La idea –quizás ingenua– , es que toda la sociedad siga este conjunto de principios para hacer de la web un lugar mejor en los próximos años de lo que soy.

Solid es el nombre del proyecto que, a fecha de hoy (20 21), quien ocupado a Berners-Lee. Trata sobre los problemas de información falsa y las preocupaciones que existen, en general, con todo lo relacionado con la web. Uno de ellos es la privacidad. ¿Cómo podemos mantener seguro los datos de las personas? Así, podemos leer en el sitio web oficial de Solid:

el proyecto pretende cambiar radicalmente el funcionamiento actual de las aplicaciones web, lo que dará lugar a una verdadera propiedad de los datos, así como a un mayor privacidad.

Tim Berners Lee presenta un plan global para salvar la web, 2019

Solid es un intento de mantener almacenados los datos de las personas de manera segura y descentralizada en almacenes, una especificación. Estos almacenes son llamados Pods, que vendrían a ser un espacio en la nube donde se encontrarían tus datos.

CONCLUSIÓN
La web es, sin duda, uno de los grandes logros de la tecnología, pues cambió por completo la forma en que las personas nos comunicamos desde finales del siglo XX hasta nuestros días.

Aún hoy, Berners-Lee sigue trabajando por hacer de la web lugar mejor para todos, más accesible, más seguro, más controlado. Consultado sobre los incentivos perversos de algunas de las grandes compañías, principalmente sobre la publicidad, que, como cualquier usuario de Internet sabe nos inunda cada día, dijo lo siguiente:

hay quien dice que mientras la web se base en la publicidad nunca va llegar a buen puerto. Hay quien dice que la publicidad es el pecado original de Internet. Pero quizás la gente decida que quiere vivir en un mundo sin publicidad, y lo hará pagando por ello. Creo que se avecina una reacción, que habrá sistemas que no se basen en la publicidad. Pero seguirá habiendo sistemas que lo hagan. La web está llena de muchas cosas diferentes.
También hay presión sobre estas empresas por parte de los comunicadores. Es un dolor, pero la gente puede cambiar a otras redes sociales y quiere. Y siempre existe la amenaza, especialmente en Europa, de la regulación. Creo que la regulación puede ser muy importante en el lugar adecuado. La regulación de la pared ácida es algo de lo que mucha gente habla ahora.

Berners-Lee, The World Wide Web Turns 30 Today. Here’s How Its Inventor Thinks We Can Fix It, 2019

La World Wide Web cumple hoy 30 años. Así es como su inventor cree que podemos arreglarlo

ÉCHAME UN CABLE
EN PATREON

ESTA ECHO PRIMO