No segundo texto da série escrita por Alan Lazalde para o blog espanhol Bitelia, a criação da World Wide Web (WWW) e a saída da internet dos ambientes acadêmicos para o dia-a-dia de bilhões de pessoas em todo o mundo.
Nesta série, da qual estamos fazendo uma tradução livre, Lazalde faz uma “revisão da história da internet e das ideias libertárias que a sustentam”. Veja abaixo.
A Internet é copyleft (II de V)
A web: informação para todos
Em 1989, Tim Berners-Lee trabalhava no Centro Europeu de Pesquisas Nucleares (Cern, na sigla em inglês) quando desenvolveu a tecnologia que possibilita a criação de links entre a colossal quantidade de informação existente na internet — um tecido muito complexo que hoje chamamos de World Wide Web (WWW), ou simplesmente web.
Berners observou que se a internet que até então existia ampliava as possibilidades de colaboração entre os pesquisadores, eles não contavam com mecanismos adequados para armazenar e apresentar essas informações. Assim, ele criou e implementou os três fundamentos sobre os quais a web se sustenta:
. Um servidor de páginas web, ou seja, um software que entrega páginas web a quem as solicita, na maior parte das vezes pessoas que estão navegando na internet.
. Uma linguagem de programação chamada HTML (HyperText Markup Language), que usa etiquetas para compor documentos com hiperlinks, que são processados pelo navegador para serem apresentados nas telas.
. E o protocolo HTTP para controlar a transmissão entre o servidor e seus clientes, por meio da rede, desse novo formato de representação da informação que são as páginas web.
As ideias de Berners-Lee, consolidades em documentos RFC e colocadas em debate, ecoaram entre milhares de desenvolvedores. Com isso, a internet foi catapultada rapidamente para fora do ambiente científico. E a web passou a servir, desde então, para conectar, por meio da informação e comunicação, a vida diária de milhões de pessoas: um benefício com o objetivo de ser universal, livre e gratuito.
A quem pertence a rede?
De quem é a internet e a web? Sabemos que os autores intelectuais das redes que compõem a internet, os protagonistas da história que alguns chamam de Revolução da Informação, são pesquisadores amplamente reconhecidos agrupados em torno da IETF (veja mais sobre a IETF no primeiro texto desta série).
Mas são eles os donos da internet, ou são as empresas e universidades para quem trabalham? Indo mais além, para quem trabalha o IETF? Seu documento RFC 3935 menciona:
“Queremos que a internet seja útil para as comunidades que compartilham nosso compromisso com a abertura e a imparcialidade. Adotamos conceitos tais como controle descentralizado, empoderamento do usuário final e a distribução de recursos para ser compartilhados (…)
A ênfase da análise da IETF é a competência técnica, o consenso simples e a participação individual, que precisa ser aberta, para receber contribuições de qualquer fonte.“
Com isso, a IETF reivindica que seu trabalho, “fazer com que a internet funcione melhor”, é a soma do esforço de muitos, no entendimento de que a internet é o bem compartilhado (no sentido de comum) mais importante que a humanidade possui. Isso quer dizer que, ao realizar seu trabalho, a IETF não apenas expande as fronteiras da pesquisa e desenvolvimento no tema, mas também entrega à humanidade uma plataforma de comunicação melhor.
O bem comum que a IETF oferece ao mundo está nas ideias, não em sua implementação. Ainda que cada documento RFC procure descrever ideias que já foram testadas na prática, a IETF só preserva os conceitos de fundo, que podem ser usados para sua implementação por particulares. Assim, por exemplo, os protocolos TCP/IP têm versões específicas implementadas para cada sistema operacional em cada equipamento que se conecta à internet, ainda que a ideia por trás de cada uma dessas versões seja a mesma.
A maioria das propostas discutidas nos doumentos RFC são protocolos de comunicação. Um protocolo é uma ideia que resolve um problema concreto, quer dizer, é um algoritmo, uma descrição passo a passo para guiar, neste caso, a transmissão confiável e robusta da informação através da rede. O grande conjunto de protocolos usados na internet e bem relacionados entre si permitiu a comunicação entre milhões de equipamentos de computação durante mais de três décadas.
Os protocolos costumam ser implementados em software ou hardware por empresas, para a venda de produtos específicos, ou então por universidades ou particulares para suas pesquisas, experiências ou melhoras. Empresas como a Cisco, a IBM ou a Verizon realizam pesquisas e desenvolvimento de protocolos de comunicação, muitas vezes em paralelo a importantes centros de pesquisa em todas as partes de mundo. No entanto, isso não os converte de nenhuma maneira em donos da rede, graças ao esmerado trabalho da IETF na difusão e manutenção de tecnologias que são abertas para todos, em vez de entregues ao frenesi dos patenteadores de ideias.