Taktiles Internet

Taktiles Internet: Datenübertragung fast in Echtzeit

Aufmacherbild: pixabay.com, Lizenz: CC0 Public Domain

Wenn es um Konzepte für das Internet von morgen geht, fällt häufig das Schlagwort „taktiles Internet“. Gemeint ist damit die Forderung, dass Internet-Anwendungen künftig annähernd in Echtzeit reagieren sollen. Die Reaktion von Cloud- oder Web-Anwendungen soll ähnlich schnell erfolgen wie zum Beispiel die menschlichen Nervenbahnen auf einen Sinneseindruck reagieren. Dass dies eine entscheidende Anforderung an künftige Mobil- und Festnetze ist, zeigt etwa das Beispiel von Operationen per Telemedizin. Hier leuchtet sofort ein, dass die Ausführung von Steuerbefehlen und die Rückmeldung an einen Arzt, der einen chirurgischen Eingriff an einem vielleicht hundert Kilometer entfernten Standort durchführt, nur wenige Millisekunden dauern darf.

Doch was müssen künftige Kommunikationsnetze leisten, um diese Anforderung zu erfüllen? Und wie lässt sich das technisch realisieren?

Wörtlich beschreibt der Begriff „taktil“ den Tastsinn des Menschen. Der Begriff „Taktiles Internet“ wird in der Regel gleichgesetzt mit „Internet in Echtzeit“. Man kann ihn auch so verstehen, dass der Anwender die Datenübertragung und -verarbeitung kaum spüren soll. Dazu sind weniger die maximalen Bandbreiten entscheidend – derzeit überbieten sich ja DSL- und insbesondere Kabelanbieter mit der Ankündigung Datenraten von mehreren hundert Megabit pro Sekunde bis in den Gigabit-Bereich. Wichtiger als diese Höchstgeschwindigkeiten sind vielmehr die Reaktionszeiten des Netzes. Sie hängen von der Zeit ab, die die Datenpakete brauchen, um vom Sender zum Empfänger zu gelangen. In der Fachsprache bezeichnet man diese Reaktionszeit als „Latenz“.

Experten gehen davon aus, dass für Echtzeitanwendungen Latenzzeiten von deutlich unter zehn Millisekunden erforderlich sind. Was bisher nur Online-Gamern wichtig war, gilt künftig als Standardanforderung für das erwachsene Internet.

Allerdings gibt es auch einen Zusammenhang zwischen Latenzzeiten und Datenraten: Soll die benötigte Datenmenge in ausreichend kurzer Zeit transportiert werden, ist dazu natürlich auch eine bestimmte Mindestgeschwindigkeit nötig. In der Praxis gehen kurze Latenzen und hohe Transportgeschwindigkeiten deshalb Hand in Hand.

Taktiles Internet in der Praxis

Welche Anwendungen brauchen denn so ein schnelles, „taktiles“ Internet? Das Beispiel Telemedizin wurde bereits genannt. Aber auch ferngesteuerte Roboter, die zum Beispiel Arbeiten oder Analysen an gefährlichen oder schlecht zugänglichen Orten durchführen sollen, erfordern reaktionsschnelle Netze. Auch die intelligente Steuerung des Stromnetzes setzt geringe Latenzzeiten voraus. Nur so lässt sich elektrische Energie zielgenau dort verfügbar machen, wo sie gebraucht wird. Wenn es durch millisekundenschnelle Steuerung gelingt, elektrischen Strom in Echtzeit nach Bedarf zu produzieren, entstehen Überkapazitäten gar nicht erst – und überschüssige Energie muss auch nicht teuer gespeichert werden.

Ein weiteres Beispiel ist der öffentliche Verkehr. Hier können Autos die Sicherheit anderer Verkehrsteilnehmer erhöhen, wenn die Fahrzeuge selbst schnell kritische Verkehrssituationen erkennen, darauf korrigierend reagieren und bei Bedarf Menschen in der Nähe warnen. Ein Übertragungsnetz mit sehr geringen Latenzen erlaubt es Autos, wesentlich schneller untereinander zu kommunizieren. So lassen sich zum Beispiel Kollisionswarnungen von einem Auto zum nächsten weiterleiten oder automatisierte Kolonnenfahren realisieren.

Das Netz muss mit dem Nutzer mit wandern

Was in der Theorie so klingt als wären nur schnellere Prozessoren und schnelle Leitungen wie zum Beispiel Glasfasern gefragt, stößt in der Praxis dennoch schnell an unüberwindbare, weil physikalisch begründete Grenzen. Vor allem die Lichtgeschwindigkeit ist so eine Grenze. Durch Glasfaserkabel reist das Licht mit immerhin etwa 66 Prozent der Lichtgeschwindigkeit – das sind rund 200.000 Kilometer pro Sekunde. Wenn Ingenieure jedoch Latenzzeiten von 5 Millisekunden fordern, dann kann ein Lichtwellenleiter maximal eine Entfernung von 1000 Kilometern überbrücken. In der Praxis fällt die Strecke eher noch kürzer aus, weil im Übertragungsweg Router und Switches liegen, die zusätzliche Schaltzeiten zur Latenz hinzufügen und die übertragenen Daten an beiden Enden der Übertragungsstrecke ja auch noch bearbeitet werden müssen.

Steht ein Server in Hamburg, und der Nutzer will in München darauf zugreifen, wird es mit ultrakurzen Latenzen also schon eng. Entfernungen etwa zwischen den USA und Europa sind für solche Anwendungen von vornherein viel zu weit. Dies hat Konsequenzen für den Netzaufbau: Dessen Strukturen müssen sich von zentralen Serverfarmen und Vermittlungsstellen weg und hin zu dezentralen Architekturen bewegen. Für Cloud-Anwendungen heißt das in der Konsequenz, dass die für den Nutzer vorgehaltenen Daten mit dem Nutzer mitwandern müssen, wenn er sich durch Deutschland, Europa oder die Welt bewegt.

Mobilität nicht nur für die Cloud

Und für die Kommunikationsnetze ergeben sich daraus noch zusätzliche Herausforderungen. Denn sie müssen ja nicht nur schnell sein, sondern sollen gleichzeitig möglichst flächendeckend zur Verfügung stehen. Für die geschilderten Anforderungen stößt selbst die aktuell schnellste Mobilfunktechnik LTE (4G) mit ihren typischen Latenzzeiten von etwa 60 Millisekunden schnell an ihre Grenzen.

Weltweit arbeiten Forscher deshalb an Konzepten und Übertragungsverfahren, mit denen sich die Datenraten massiv erhöhen und die Latenzen massiv senken lassen. In Europa leistet etwa die TU Dresden gemeinsam mit dem King’s College in London und der Universität von Surrey wichtige Grundlagenforschung in diesem Bereich. Ihre Ergebnisse sollen bis etwa 2020 in den nächsten Mobilfunkstandard einfließen, der bereits unter dem Schlagwort „5G“ gehandelt wird.

Schon im Mai 2013 hatte Professor Gerhard Fettweis vom Vodafone-Stiftungslehrstuhl Mobile Nachrichtensysteme an der TU Dresden einen (englischsprachigen) Ausblick auf die Anforderungen aber auch Möglichkeiten gegeben, die das Konzept „taktiles Internet“ für die nächste Mobilfunkgeneration zur Folge hat:

Professor Gerhard Fettweis leitet dabei aus den Einsatzmöglichkeiten und Geschäftsmodellen eines künftigen taktilen Internet die Anforderungen an die Technik ab.

Fast den umgekehrten Weg beschreitet in kurzes Interview mit Professor Armin Dekorsy, Leiter des Arbeitsbereichs Nachrichtentechnik an der Universität Bremen:

Professor Dekorsy beantwortet darin, welche Folgen die geplanten technischen Entwicklungen für Internet-Anwendungen in der Wirtschaft und Gesellschaft haben könnten. Bei allen Chancen, die er diesen Entwicklungen zugesteht, thematisiert Professor Dekorsy dabei aber auch deren mögliche Risiken.

Und die sollten in der Tat nicht ausgeblendet werden. Wer seine Daten dezentralen, ja mitreisenden Clouds anvertraut, will sich auch darauf verlassen, dass trotzdem nur er allein Zugriff auf diese Daten hat. Gerade nach dem NSA-Skandal und den Enthüllungen von Edward Snowden sind diese Forderungen und Fragestellungen aktueller denn je. Die Netzbetreiber und Anbieter von Cloud- und Internet-Diensten können nur auf eine breite Akzeptanz ihrer Angebote hoffen, wenn sie diese Bedenken durch wirksame technische Lösungen überzeugend zerstreuen können. Diese Aufgabe dürfte neben der Verringerung von Latenzzeiten und der Entwicklung dezentraler Kommunikationsnetz-Strukturen einen mindestens genauso hohen Stellenwert für den Erfolg des taktilen Internet in der Zukunft haben.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert