Das Netz kennt keinen Chef, keine Regierung, kein Zentrum. Im Netz sind alle Daten gleich, alle Strukturen und Ressourcen werden geteilt. Das Internet steht jedem offen, und es ist anonym – auch wenn sich dieser Zustand mehr und mehr ändert. Die, die es schufen, hatten genau diese Freiheit im Sinn. Wer verstehen will, wie frei das Netz war und in Teilen noch immer ist, muss den Anfang betrachten. Reisen wir also in der Zeit ein Stück zurück.

Am 4. Oktober 1985 gründete Richard Matthew Stallman die Free Software Foundation. Stallman, der später dem freien Betriebssystem Linux zum Durchbruch verhalf, war Physiker, betrachtete sich selbst als Hacker und hatte gerade seinen Job als Programmierer am Labor für Künstliche Intelligenz des Massachusetts Institute of Technology gekündigt.

In den Anfangsjahren der Computergeschichte standen die Programme jedem offen. Sie waren als Quelltext gespeichert, in einer Form also, die Menschen lesen und verstehen können. Heute gilt der Quellcode Firmen wie Microsoft als gehütetes Geheimnis, damals aber war er selbstverständlich jedem zugänglich. Programme waren wie ein Text, jeder konnte sie verstehen, sie verändern, besser machen. Software war eine Beigabe, die Hersteller verdienten ihr Geld mit den Maschinen, nicht mit dem Code. Doch je wichtiger dieser wurde, desto mehr Unternehmen sperrten ihre Programme ein, damit sie nicht mehr kopiert und verändert werden konnten. Stallman sah darin eine Gefahr, denn Computer und vor allem das Internet waren anders gedacht gewesen. Der Zustand der Freiheit, den Stallman damals schwinden sah und der uns heute fast schon als Utopie erscheint, war die Grundeinstellung des Internets.

Reisen wir noch ein Stück weiter zurück. Joseph Carl Robnett Licklider war Professor für experimentelle Psychologie. Ende der 50er-Jahre arbeitet er an einer Studie mit, die das Bomberwarnsystem der USA untersuchte. SAGE (Semi-Automatic Ground Environment) war das erste Luftüberwachungssystem, das Computer nutzte. An 23 in den ganzen USA verteilten Stationen starrten Operatoren auf Radarschirme, deren Computer über Telefonleitungen miteinander verbunden waren, und suchten nach sowjetischen Bombern. Licklider kam angesichts dieses Netzes die Idee, Mensch und Maschine könnten enger verknüpft werden, ja sie könnten eine regelrechte Symbiose eingehen. In Echtzeit könnten die Maschinen den Menschen beim Denken helfen, so glaubte er, und sie könnten Partner bei der Suche nach Lösungen sein. Licklider sah in Computern auch keine Rechenmaschinen, er betrachtete sie als Kommunikationsgeräte, geschaffen, um Menschen miteinander zu verbinden. Ein weltweites Netz aus Rechnern schwebte ihm vor, ein „Intergalactic Computer Network“, wie er es in seinen Vorträgen nannte. Jeder sollte von jedem Ort aus Zugriff auf seine Daten haben, viele Menschen sollten einen Computer gleichzeitig nutzen, sich seine Macht teilen können, gar neue Gemeinschaften sollten darüber entstehen. Das hört sich schon ziemlich nach dem Internet von heute an, oder? 

Warum sollen zwei Menschen für ein Gespräch eine Leitung blockieren?

Nichts davon war damals technisch möglich, und nicht wenige warfen Licklider vor, seine Ideen seien ein Irrweg der Computertechnik. Er versuchte es trotzdem. Als er Anfang der 60er-Jahre Leiter eines Programms beim Verteidigungsministerium der USA wurde, begann er, entsprechende Projekte zu fördern. So auch das sogenannte Arpanet, das Universitäten, die für das Pentagon forschten, miteinander verbinden sollte: ein dezentrales Netz, um die teuren Rechner besser auslasten und um problemlos wissenschaftliche Daten austauschen zu können. Verbinden, teilen, tauschen – das waren die Grundgedanken des Arpanets, das als Ursprung des Internets gilt. Sie entstanden aus der Tradition der Forschung, Wissen miteinander zu teilen, damit andere davon profitieren und so mehr Wissen schaffen können. Und sie entstanden, weil die begrenzten Ressourcen so gut wie nur möglich ausgenutzt werden sollten. Urheberrechtsmodelle wie Creative Commons, die das Teilen von Texten, Musik und Bildern erleichtern, sind also nach wie vor Ausdruck der technischen Umwälzung, die vor mehr als 40 Jahren erdacht wurde. Denn Creative Commons will eben das Teilen erleichtern. Jeder darf danach ein Werk nutzen, es anpassen, verändern, solange er sich an ein paar Bedingungen hält. Die wichtigste ist, dass er das Ergebnis selbst wieder teilt und es anderen zu den gleichen Bedingungen zugänglich macht. Creative Commons, Wikipedia, Freie Software – sie alle wollen die vorhandenen Dinge so einsetzen, dass alle sie nutzen können.

Zurück zur Geschichte des Internets: Damit das Teilen technisch funktionieren konnte, brauchte es nicht nur Computer und Telefonleitungen, es brauchte vor allem Regeln, wie Daten durch diese Leitungen geschickt werden sollten. Begrüßen wir Robert Elliot „Bob“ Kahn. Er führte für das Arpanet ein Verfahren ein, das kurz zuvor in Großbritannien erdacht worden war: „Packet Switching“ – also Paketvermittlung. Beim Telefonieren wird eine feste Verbindung aufgebaut; der Anrufer wählt, der Angerufene hebt ab, fortan ist ihre Leitung reserviert. Ob sie reden oder schweigen, niemand sonst kann sie nutzen. Praktisch für die beiden, unpraktisch für alle anderen. Packet Switching hingegen kennt keine festen Leitungen. Informationen werden in kleine Pakete zerlegt und über die Leitungen geschickt, die gerade frei sind. Jedes davon reist im Zweifel auf einem anderen Weg zur Zieladresse. Erst dort werden alle wieder zur fertigen Botschaft zusammengesetzt. Besetzte Leitungen gibt es nicht. Genutzt wird nur so viel Bandbreite, wie nötig ist, um ebendieses Paket hindurchzuschleusen, anschließend können andere kommen, von anderen Absendern mit anderem Ziel. Ursprung dieses Verfahrens war erneut ein Mangel, es gab zu wenig Telefonleitungen, und sie hatten eine sehr begrenzte Bandbreite.

Packet Switching löst nicht alle Probleme, es entstehen trotzdem Staus, und es gehen auch immer wieder Pakete verloren. Kahn entwarf ein Protokoll, um mit diesen Problemen klarzukommen und Pakete so effizient wie möglich zu verteilen. Eine universale Regel zur Verständigung zwischen Rechnern. Das Internetprotokoll, wie es Kahn und der Informatiker Vinton „Vint“ Gray Cerf nannten, ist bis heute Basis der Datenübertragung im Netz. Der Witz: Das Internetprotokoll, später weiterentwickelt und umbenannt in TCP/IP, behandelt jedes Datenpaket gleich, keines wird bevorzugt, keines benachteiligt. Gleichzeitig ist dem Protokoll egal, was es befördert. Genau wie die Post schaut es nicht in die Daten hinein, um zu erfahren, was es damit machen soll, es interessiert sich nur für den Adressaufkleber. Dank des Internetprotokolls konnten nicht nur alle Arten von Daten durch das Netz transportiert werden. Das IP begründete auch die bis heute im Internet gültigen Prinzipien der Anonymität und der Neutralität der Informationen. Wieder aus der Erfordernis heraus, die begrenzten Ressourcen so einzusetzen, dass alle etwas davon haben.

Im Protokoll TCP/IP ist die Gleichbehandlung festgeschrieben

Sogenannte Tauschbörsen sind also nicht etwa ungeplanter Auswuchs einiger Radikaler, sie sind eine logische Folge des Internets, eine konsequente Umsetzung seiner Prinzipien. Und sie sind, was die Nutzung von begrenzten Ressourcen angeht, ein riesiger Fortschritt. Weil große Datenmengen auf viele Rechner und auf viele Wege verteilt werden, können sie problemlos durch das Netz geschickt werden – viel effektiver zumindest, als wenn jeder Tauschpartner zu jedem anderen Tauschpartner eine feste Verbindung aufbauen und diese blockieren würde.

Das Transportprotokoll ist jedoch längst nicht die einzige Struktur, die offen und für alle zugänglich ist. Willkommen bei Tim Berners-Lee. Auch er, der Erfinder des World Wide Web, ist Physiker und Informatiker, auch er will vor allem eines: Informationen so einfach wie möglich mit anderen austauschen. Als Mitarbeiter am Kernforschungszentrum CERN in der Schweiz entwickelt er ab 1989 die Hypertext Markup Language, kurz HTML. Es ist eine Sprache, um Informationen zu strukturieren. HTML sagt in einfachem Code, was ein Bild ist und was eine Überschrift, sie beschreibt, wo ein Text anfängt und in welcher Schrift er verfasst wurde. Mit dem sogenannten Link schafft Berners-Lee außerdem ein System, um diese Dokumente beliebig untereinander zu verknüpfen. Und er entwickelt ein Programm, das sich die Daten holen, diesen Code nutzen und aus ihm wieder Texte zusammensetzen kann, die so aussehen wie die ursprünglichen Dokumente. Berners-Lee nennt das Programm World Wide Web. Es ist der erste Browser. Selbstverständlich stellt Berners-Lee seine Sprache und seinen Browser jedem zur Verfügung. Er will, dass viele sie nutzen und dann miteinander Daten tauschen. Nur so kann das Netz überhaupt nützlich werden.

Heute sind all diese Freiheiten in Gefahr. Immer mehr Firmen und Regierungen versuchen, die technischen Prinzipien auszuhebeln und in diesem schranken- und klassenlosen Reich abgesperrte Bereiche und Überwachungspunkte einzuführen, um Geld zu verdienen. Sollte die Kultur des Teilens, sollten Neutralität und Anonymität verloren gehen, wird das Netz nicht nur weniger anarchisch und weniger anstrengend sein. Es würde dadurch auch weniger innovativ und weniger offen. Und nicht nur das Netz. Denn, so sagt Richard Stallman bis heute: Freie Daten sind ein Garant für ein freies Zusammenleben.