Content

Teil A: Einleitung und Grundlagen in:

Stephan Degenhardt

Breitbandausbau in dünn besiedelten Regionen, page 11 - 32

Staatliche Probleme, privatwirtschaftliche Chancen

1. Edition 2017, ISBN print: 978-3-8288-4056-0, ISBN online: 978-3-8288-6898-4, https://doi.org/10.5771/9783828868984-11

Tectum, Baden-Baden
Bibliographic information
Teil A: Einleitung und Grundlagen 13 1 Einleitung Politiker werden nicht müde, die Chancen und Herausforderungen der Digitalisierung zu betonen. Schon 2013 gab Alexander Dobrindt, Bundesminister für Verkehr und digitale Infrastruktur, in einem Interview die Maxime aus: „Deutschland braucht das schnellste und intelligenteste Netz der Welt. Nur so kann der Vorsprung in Technologie und Wohlstand gehalten werden“.1 Im März dieses Jahres legte er nach und sagte: „Neue Anwendungen wie Virtual Reality und die Vernetzung aller Dinge bringen ein enormes Datenwachstum. In Zukunft brauchen wir mehr Bandbreite, eine zuverlässige Echtzeit-Übertragung und intelligente Netze [...].“2 Trotz dieser mahnenden Worte ist zu konstatieren, dass die Internet- Infrastruktur in Deutschland derzeit weit davon entfernt ist, die beste der Welt zu sein. Die mittlere Surfgeschwindigkeit beträgt hierzulande 13,7 Mbit/s; in der Spitze erreichen die deutschen Nutzer durchschnittlich 55,5 Mbit/s. Im globalen Vergleich bedeuten das Plätze im unteren Mittelfeld. In Südkorea, dem Vorreiterland des schnellen Internets, werden im Mittel 26,3 Mbit/s und in der Spitze durchschnittlich 114,2 Mbit/s erreicht.3 Gerade in dünn besiedelten Regionen sind hohe Bandbreiten meist nicht verfügbar. Während schon 93,7% der städtischen Gemeinden in Deutschland mit mindestens 30 Mbit/s versorgt sind und 89,5% mit mindestens 50 Mbit/s, trifft dies nur auf 51,9% bzw. 33,8% der ländlichen Gemeinden zu.4 Aufgrund der schlechten Versorgung des ländlichen Raums wird daher schon länger das Bild einer digitalen Spaltung der Gesellschaft gezeichnet, die sich aufteilt in digital Informierte einerseits und „digitale Habenichtse“5 andererseits. Besteht die Spaltung fort, so die Argumentation, werden dünn besiedelte Regionen noch weiter abgehängt; eine hohe Breitbandverfügbarkeit hingegen könne bestehende Standortnachteile auf dem Land ausgleichen.6 1 Backhaus, Lambeck und Uhlenbroich (2013). 2 BMVI (2017a). 3 Vgl. Akamai (2016), S. 12-13, 34 (Stand: 3. Quartal 2016). 4 Vgl. TÜV Rheinland (2016a), S. 4 (Stand: Ende 2016). Städtisch: Gemeinden mit einer Bevölkerung ≥ 500 Einwohner/km²; Ländlich: Gemeinden mit einer Bevölkerung < 100 Einwohner/km². 5 Scheule (2005), S. 475; vgl. auch OECD (2000), S. 179. 6 Vgl. Picot und Grove (2010), S. 7-8. 14 Vor diesem Hintergrund wird in dieser Arbeit die Rolle des Staates beim Ausbau von Breitband-Hochleistungsinfrastruktur in dünn besiedelten Regionen untersucht. In der öffentlichen Debatte dominieren die Stimmen, wonach der Staat – und damit die Allgemeinheit – den Ausbau in solchen Regionen mit öffentlichen Mitteln fördern solle, in denen aufgrund ungewisser Rentabilität nicht mit einem privatwirtschaftlichen Ausbau zu rechnen ist. Solche Forderungen zielen auf die flächendeckende Versorgung mit schnellem Internet. Das Forschungsinteresse dieser Arbeit aber ist, eine Rolle des Staates herauszuarbeiten, die – dem sofortigen Ruf nach Aufwendung von Steuergeldern entgegentretend – den marktgetriebenen Ausbau soweit wie möglich stärkt und vorantreibt, indem die Rentabilität privater Investitionen durch einen effizienten, staatlich etablierten regulatorisch-rechtlichen Rahmen erhöht wird. Im Mittelpunkt der Arbeit, in Teil B, steht daher die Theorie des Marktversagens. Mit ihrer Hilfe wird untersucht, ob Friktionen im Marktprozess bestehen, die den privatwirtschaftlichen Ausbau von Breitband-Hochleistungsinfrastruktur hemmen und daher ökonomisch gebotene Staatseingriffe rechtfertigen. Teil C baut direkt darauf auf. In ihm werden die staatlichen Maßnahmen und Regeln er- örtert, die aus der Marktversagensanalyse resultieren und die einen effizienten regulatorisch-rechtlichen Rahmen etablieren können. Vor der Analyse in den Teilen B und C folgen in Teil A zunächst Grundlagen, die zum Verständnis der Analyse und zu ihrer weiteren methodischen Einbettung nötig sind. In Kapitel 2 werden technologische Grundlagen dargestellt; in Kapitel 3 werden Faktoren vorgestellt, die Kosten und Rentabilität des Breitbandausbaus bestimmen; und in Kapitel 4 folgt ein Zwischenfazit, das mit tieferen methodischen Vor- überlegungen die weitere Vorgehensweise der Arbeit determiniert. 15 2 Technologische Grundlagen 2.1 Datenübertragungsrate und Breitband Mit jeder versendeten E-Mail oder Suchmaschinenanfrage, mit jedem gestreamten Film oder Datenupload werden digitale Signale durch die Datenkanäle des Internets geleitet. Die Datenübertragungsrate (in dieser Arbeit auch Übertragungsgeschwindigkeit oder Bandbreite genannt) drückt dabei aus, wie viele solcher Signaltakte (auch Bits genannt) pro Sekunde übertragen werden können (Bit/s). Man unterscheidet ferner zwischen Downstream- und Upstreamrate, die meist unterschiedlich hoch sind. Erstere ist in der Regel höher, bezieht sich auf die Rate beim Herunterladen/Abrufen von Daten und ist beim alltäglichen privaten Surfen die entscheidende Größe. Die Upstreamrate ist entscheidend beim Hochladen/Versenden von Daten und vor allem für gewerbliche Nutzer relevant, da es z.B. bei Videokonferenzen oder Big-Data-Anwendungen auch auf sie ankommt – es also wichtig ist, dass die Übertragungsraten im Down- und Upstream gleich hoch (symmetrisch) sind.7 Der Einfachheit halber ist im Folgenden die Downstreamrate gemeint, wenn Bandbreiten angeführt werden.8 In dieser Arbeit geht es um den Ausbau von Breitband- Hochleistungsinfrastruktur. Was genau ist damit gemeint? Die Spezifizierung ist komplex und nicht eindeutig. Breitband meinte ursprünglich, vor dem Jahr 2000, signifikant höhere Übertragungsraten als 56 bzw. 64 Kbit/s, die mit einem schmalbandigen Zugang über Telefonmodem bzw. ISDN möglich waren.9 Da aber die Zugangstechnologien (vgl. Kapitel 2.3) ständig leistungsfähiger werden und höhere Geschwindigkeiten erlauben, entwickelt sich auch die Breitband- Definition permanent weiter. Eine einheitliche nationale oder internationale Festlegung existiert nicht. Das Statistische Bundesamt z.B. spezifiziert Breitband schon ab einer Rate von 256 Kbit/s, die International Telecommunication Union (ITU) hingegen erst ab 1,5 Mbit/s (entspricht 1500 Kbit/s).10 Die damalige Große Koalition aus CDU/CSU und SPD legte 2009 in ihrer Breitbandstrategie eine Definition von mindestens 1 Mbit/s zugrunde. Hochleistungsfähiges Internet definierte sie an dieser Stelle mit Übertragungsraten von mindestens 50 7 Vgl. Wernick und Henseler-Unger (2016), S. 21. 8 Dieser Abschnitt folgt Reents (2016), S. 6. Auch in der Einleitung wurden Downstreamraten angeführt. 9 Vgl. Picot und Grove (2010), S. 9. 10 Vgl. Statistisches Bundesamt; ITU (2003). 16 Mbit/s.11 Dieser Mindest-Definition für eine Hochleistungsinfrastruktur soll auch in dieser Arbeit gefolgt werden. Zwar sind – wie in Kapitel 2.3 gezeigt werden wird – mit diversen Technologien schon Geschwindigkeiten von mehreren hundert Mbit/s oder mehr möglich. Weil der Fokus auf dünn besiedelten Regionen liegt, ist ein zu hoher Schwellenwert aber für die Arbeit nicht zweckdienlich. Wie in Kapitel 1 erwähnt, sind aktuell für fast 70% der ländlichen Gemeinden 50 Mbit/s oder mehr nicht verfügbar – diese Mindest-Bandbreite in dünn besiedelte Regionen zu bringen, erscheint also schon ambitioniert. 2.2 Next Generation Network/Next Generation Access Wie der Breitbandbegriff ist auch der Ausdruck Next Generation Network (NGN) schwer zu definieren, da er sich stetig weiterentwickelt. Grob fasst er diverse Konzepte für die künftige Architektur elektronischer Kommunikationsnetze zusammen. Im Kern geht es darum, dass sich separate Kommunikationsinfrastrukturen wie das traditionelle Telefon- oder Kabelfernsehnetz mehr und mehr auflösen. Bei diesen analogen Netzen findet der Datenaustausch noch leitungsvermittelnd statt, d.h., es gibt eine direkte physikalische Verbindung zwischen den Teilnehmern. Die Dienste, z.B. Telefonie, sind dabei untrennbar verbunden mit der unterliegenden Netz- bzw. Transportarchitektur. Im NGN hingegen gehen die klassischen Netze in einer universalen Netzarchitektur auf, in der alle elektronischen Kommunikations- und Datendienste – ob Sprachtelefonie, Fernsehen, Streaming oder Cloud- Anwendungen – durchweg über das so genannte Internet Protocol übertragen werden („all IP“). Die einzelnen Dienste sind also nicht mehr abhängig von einer bestimmten Übertragungsinfrastruktur; stellt man sich vor, die Netzarchitektur bestünde aus Schichten, wären die Dienst- und die Transportschicht voneinander getrennt. Der Datenaustausch findet dabei paketvermittelnd statt; d.h., die Daten werden in kleine Pakete aufgeteilt, dann über ein dezentrales System vom Sender zum Empfänger weitergeleitet und dort wieder zusammengesetzt.12 Diese Universalität der IP-Infrastruktur führt einerseits zu Effizienzgewinnen und Kostenersparnissen. Der Grund: „Die Kapazitäten müssen nicht dienstespezifisch ausgelegt werden, sondern nur für die Gesamtmenge des Datenverkehrs.“13 In Relation sind daher weniger In- 11 Vgl. Bundesregierung (2009), S. 1-3. 12 Vgl. Elixmann, Kühling, Marcus, Neumann, Plückebaum und Vogelsang (2008a), S. 2; Wissenschaftlicher Beirat beim BMWi (2014), S. 11-12; Elektronik Kompendium (a). 13 Kruse (2011), S. 176. 17 vestitionen nötig, als wenn für jeden Dienst eine spezifische Infrastruktur aufgebaut würde. Andererseits ist es durchaus mit Problemen behaftet, wenn eine Netzarchitektur für alle Kommunikations- und Datendienste verwendet wird. Bei sehr hohem Datenaufkommen kann es sein, dass die bereitgestellte Bandbreite (in diesem Kontext auch Übertragungskapazität genannt) nicht ausreicht, um alle Datenpakete zügig zu transportieren. Manche Datenpakete werden dann nicht sofort weitergeleitet, es kommt zu Staus bzw. Überlasten. Die Folge können Verzögerungen (Latenz), Schwankungen (Jitter) oder der Verlust von Datenpaketen sein.14 Ein kurzer Blick auf Statistiken zeigt, dass das IP- Datenvolumen tatsächlich seit Jahren exorbitant ansteigt. Weltweit verdoppelt es sich im Festnetz in etwa alle 40 Monate, im Mobilfunk gar alle 18 Monate. Von 2005 bis 2021 wird sich der gesamte IP- Verkehr mehr als verhundertfacht haben. Besonders stark steigt dabei das Volumen in den Spitzenzeiten (die Stunde am Tag mit dem höchsten Aufkommen). Dieser „Busy Hour“-Verkehr wuchs z.B. 2016 um 51%, während der durchschnittliche IP-Verkehr um 32% zunahm.15 Die Frage ist, wie die Datenpakete behandelt werden, wenn es bei hohem Aufkommen (speziell in Spitzenzeiten) zu Überlasten kommt. Im schmalbandigen Internet wurde das so genannte Best-Effort-Prinzip etabliert. Es besagt, dass alle Datenpakete – unabhängig von ihrem Ursprung, Ziel oder Inhalt und unabhängig davon, ob sie auf einen schnellen und störungsfreien Transport angewiesen sind – gleich behandelt werden. Dieses Prinzip war in den Anfangstagen des Netzes einerseits unumgänglich, da es technisch nicht möglich war, die Datenpakete differenziert weiterzuleiten. Andererseits war dies im schmalbandigen Internet auch nicht nötig, da mit den geringen Übertragungsraten ohnehin nur Anwendungen möglich waren, die keine großen Anforderungen an die Transportqualität stellten (z.B. E-Mails oder der Versand von Textdateien). Dies hat sich mit dem breitbandigen Internet geändert. Die höheren Bandbreiten ermöglichen vielfältige Anwendungen, die auf einen zuverlässigen Transport ohne Verzögerungen, Schwankungen oder Paketverlust angewiesen sind. Zu denken ist beispielsweise an Videokonferenzen bzw. -telefonie, Online- Gaming, IP-Fernsehen, Cloud Computing, Film-Streaming (Video on Demand) oder Fernoperationen in der Medizin.16 Auch die klassische 14 Vgl. Kruse (2011), S. 176. 15 Vgl. BMWi (2016), S. 13; Cisco (2017), S. 2. 16 Welche Anwendungen benötigen welche Downstream-Bandbreite? Im Folgenden einige Beispiele: bis zu 1 Mbit/s: E-Mail, Webbrowsing, Musik-Streaming, VoIP, Web-Videos (SD-Qualität) 18 Sprachtelefonie wird inzwischen mittels der VoIP-Technik (Voice over Internet Protocol) zu einem großen Teil über das Internet abgewickelt. Die Deutsche Telekom z.B. will bis 2018 all ihre Anschlüsse auf IP- Telefonie umstellen.17 Für das universale IP-Netz bedeutet es eine Herausforderung, dass es auch für Telefonie genutzt wird, da für störungsfreie Gespräche hohe Qualitätsstandards nötig sind.18 Wie Datenpakete im Netz behandelt werden, wird in der politischen Arena unter dem Leitbegriff „Netzneutralität“ diskutiert. Grob gesagt geht es um die Frage, ob Anbieter von Internetzugangsdiensten (im Folgenden auch verkürzt Internetanbieter genannt) dabei reguliert werden sollen, wie sie die Datenpakete übertragen. In einer extremen Form der Regulierung könnten sie weiter zum Best-Effort-Prinzip und damit der Gleichbehandlung aller Daten verpflichtet werden. Damit wäre es ihnen verboten, Datensignale von Anwendungen, die auf einen zuverlässigen und schnellen Transport angewiesen sind, bevorzugt weiterzuleiten (dieses Vorgehen ist mittlerweile technisch möglich und wird auch als aktives Verkehrsmanagement bezeichnet). Diese extreme Form der Regulierung wird im Folgenden strikte Netzneutralität genannt.19 Auf das Thema Netzneutralität wird in den analytischen Teilen B und C noch ausführlicher einzugehen sein. bis zu 16 Mbit/s: Gaming (Standard), Web-Videos (HD-Qualität), IP-TV (SD-Qualität), Videotelefonie bis zu 50 Mbit/s: Video on Demand (z.B. Netflix), Videokonferenzen, IP-TV (HD-Qualität) bis zu 100 Mbit/s: Gaming (Anspruchsvoll), IP-TV (3D), Cloud Computing bis zu 1Gbit/s: 3D-Collaboration, Remote Surgery (Fernoperationen) In den Bereichen Gaming, Gesundheit (E-Health) und Bildung (E-Learning) gibt es sowohl Anwendungen, die hohe bis sehr hohe Übertragungsraten benötigen (z.B. interaktive Spiele in Echtzeit, Fernoperationen oder virtuelle Hochschulkurse), als auch solche, die schon mit geringen Bandbreiten funktionieren (z.B. einfache Kartenspiele, die Übertragung von Vitaldaten an den Arzt oder das Abrufen von Lehrpräsentationen). Bei den Video- Anwendungen (Web-Video und Video on Demand) gilt zudem, dass die Anforderungen an die Bandbreite sinken, wenn Puffertechnologien verwendet werden (die Auflistung und die Erörterungen folgen Hessler, 2015, S. 306-307). 17 Vgl. Deutsche Telekom (2014). 18 Dieser Abschnitt folgt dem Wissenschaftlichen Beirat beim BMWi (2014), S. 10-12. 19 Vgl. Wissenschaftlicher Beirat beim BMWi (2014), S. 11-13; Kruse (2011), S. 178. 19 Zum Thema NGN ist noch auszuführen, dass die Migration zu einer solchen digitalen IP-Infrastruktur auf verschiedenen Netzebenen erfolgt. Es lassen sich unterscheiden: - das lokale Zugangsnetz (auch Teilnehmeranschlussleitung, TAL, oder „letzte Meile“ genannt), das in der Festnetz- Telekommunikation traditionell vom Teilnehmerendgerät (TE) über einen Verteilpunkt am Straßenrand, den Kabelverzweiger (KVz), bis zu dem Punkt reicht, an dem die Datensignale mit so genannter aktiver Infrastruktur (z.B. mit einem DSLAM, Digital Subscriber Line Access Multiplexer) gebündelt und konzentriert werden. Traditionell befindet sich dieser Punkt in großen Betriebsstellen, auch Hauptverteiler (HVt) oder Vermittlungsstellen genannt, was sich durch neue Zugangstechnologien aber ändert – näheres im folgenden Kapitel. Der Netzbereich, in dem die Daten konzentriert werden, wird auch als Backhaul bezeichnet. - das überregionale Kernnetz (auch Backbone genannt), das die konzentrierten Signale übernimmt, die einzelnen Zugangsnetze miteinander verbindet und die Anbindung an andere Netze herstellt (z.B. Mobilfunk oder ausländische Netze).20 Für diese Arbeit von besonderem Interesse sind die technologischen Entwicklungen im lokalen Zugangsnetz, die sich vor Ort auch in ländlichen Regionen zeigen. Im Kontext dieser Entwicklungen wird auch von Next Generation Access (NGA) gesprochen. Im Folgenden werden einzelne NGA-Zugangstechnologien näher beleuchtet. 2.3 Zugangstechnologien Aufgrund der Mindest-Definition für eine Hochleistungsinfrastruktur werden nur Technologien betrachtet, die zumindest potenziell hochbitratige Bandbreiten von 50 Mbit/s und mehr (NGA-Bandbreiten) übertragen können. Im Sinne des z.B. im Telekommunikationsgesetz21 verankerten Prinzips der Technologieneutralität kommen dafür mehrere Lösungen in Frage: Zum einen leitungsgebundene Lösungen über das Telefon-Festnetz und über das TV-Kabelnetz, über die stationäre Breitbandanschlüsse geschaltet werden. Zum anderen die leitungsungebundene Lösung über Mobilfunk, über die ein mobiler Breitbandzugang möglich ist. 20 Vgl. Elixmann et al. (2008a), S. 3; Hessler (2015), S. 39-40. 21 „Zweck dieses Gesetzes ist es, durch technologieneutrale Regulierung [...]“ (§ 1 TKG). 20 2.3.1 Telefon-Festnetz (FTTx) Traditionell besteht die komplette TAL im Festnetz, vom HVt über den KVz bis zum Endkunden, aus einer Kupferdoppelader. Aufgrund der physikalischen Eigenschaften von Kupfer sind damit aber keine NGA- Geschwindigkeiten möglich. Die Lösung ist, die Kupferkabel auf der TAL teilweise oder komplett durch leistungsfähigere Glasfaserkabel zu ersetzen (die Backbones der Anbieter bestehen bereits aus Glasfaser). Solche Zugangslösungen über Glasfaser werden als FTTx- Technologien bezeichnet: Fiber to the x. Das x steht dabei als Platzhalter für die Stelle, an dem das Signal von der Glasfaser auf die vorhandene Kupferdoppelader übergeht.22 - Fiber to the Curb (FTTC): Glasfaser wird bis zum KVz gelegt. Dieser wird mit aktiver Infrastruktur aufgerüstet, um die Signale zu konzentrieren und in Richtung Kernnetz weiterzuleiten. Der verbleibende (verkürzte) Kupferabschnitt wird mittels so genannter VDSL/Vectoring-Technologien23 (Vectoring, Super-Vectoring oder in naher Zukunft G.fast) so optimiert, dass Geschwindigkeiten von mindestens 50 Mbit/s bis hin zu mehreren hundert Mbit/s erreicht werden können. Dabei gilt: Je kürzer die verbleibende Kupferleitung (je kürzer die Distanz zwischen KVz und Endkunde), desto schneller die Bandbreite. Die HVt können als Verteilknoten für Glasfaserstränge dienen oder Equipment für höhere Netzebenen beinhalten, müssen aber nicht.24 - Fiber to the Building (FTTB): Glasfaser wird bis zum so genannten Endverzweiger (EVz) im Gebäude (meistens im Keller) gelegt. Die aktive Infrastruktur rückt also noch näher an den Endkunden heran, innerhalb des Gebäudes wird in der Regel weiter die vorhandene Kupferverkabelung genutzt. FTTB ist sinnvoll für Gebäude mit mehreren Wohneinheiten (Hochhäuser, Mehrfamilienhäuser oder Wohnanlagen) und wird daher vor allem im städtischen Bereich eingesetzt. Je nach genauer Systemtechnik (die Details würden zu weit führen) und der Anzahl der Mitnutzer im Gebäude, sind Bandbreiten im Gigabit-Bereich (1000 Mbit/s und mehr) möglich.25 22 Vgl. Fornefeld und Logen (2013), S. 9; Holznagel, Picot, Deckers, Grove und Schramm (2010), S. 29. 23 VDSL steht für Very High Speed Digital Subscriber Line. 24 Vgl. RTR (2007), S. 10; Fornefeld und Logen (2013), S. 9; Neuhetzki (2016a). 25 Vgl. Hessler (2015), S. 56; Wernick und Henseler-Unger (2016), S. 22; Elektronik Kompendium (b). 21 - Fiber to the Home (FTTH): Glasfaser wird bis in die Wohnung gelegt, bis zum TE. Hierbei kann zwischen zwei Systemarchitekturen gewählt werden. Bei einer Point-to-Point-Architektur (P2P) wird ein dezidierter Glasfaserstrang von einem Konzentrationspunkt (z.B. im HVt) zum Endkunden gelegt. Bei einer Point-to-Multipoint- Architektur (P2M) hingegen wird die vom Konzentrationspunkt kommende Glasfaser über einen optischen Splitter (der sich z.B. im KVz befinden kann) so verzweigt, dass mehrere Nutzer damit versorgt werden können. Mit beiden Architekturen sind Bandbreiten im Gigabit-Bereich möglich, wobei die P2P-Lösung klare Geschwindigkeitsvorteile hat – mit ihr sind theoretisch bis zu 100.000 Mbit/s möglich. Eine P2M-Lösung spart dafür Kosten, da weniger Glasfaser nötig ist.26 Was die erreichbaren Übertragungsraten betrifft, sind FTTB/H- Architekturen die zukunftsfähigsten Technologien, da sie bereits gigabitfähig sind.27 Obwohl in ländlichen Regionen die FTTH- Implementierung tendenziell sinnvoller ist, werden beide Lösungen meist zusammen betrachtet und nachfolgend auch als reine Glasfasernetze bezeichnet. 2.3.2 TV-Kabelnetz Seit den frühen 2000er Jahren werden die aus so genannten Koaxialkabeln bestehenden TV-Kabelnetze so umgerüstet, dass sie auch für Internet- und Telefondienste nutzbar sind. Genauer gesagt: Sie werden rückkanalfähig gemacht – ursprünglich erlaubten sie nämlich nur den Datentransport in eine Richtung. Die Netzinfrastruktur der Kabelnetze ist grundsätzlich mit der des Telefon-Festnetzes vergleichbar. Es gibt ein Kern- und ein Zugangsnetz, letzteres reicht vom Endkunden über einen Koaxverstärker (vergleichbar mit dem KVz) bis zu einer lokalen Kopfstelle (vergleichbar mit dem HVt), dort erfolgt die Anbindung ans Backbone. Um höhere Bandbreiten zu erreichen, werden die Koaxialkabel im Zugangsnetz schon seit einigen Jahren durch Glasfaserkabel ersetzt; es entstehen hybride Netze aus Koaxialkabel und Glasfaser (so 26 Vgl. RTR (2007), S. 10; Elixmann et al. (2008a), S. 5; Wernick und Henseler- Unger (2016), S. 22. 27 Das Wissenschaftliche Institut für Infrastruktur und Kommunikationsdienste (WIK) z.B. prognostiziert, dass 2025 (wegen wachsender Datenmengen und steigender Qualitätsanforderungen von Anwendungen) über 75% der Haushalte Bandbreiten von mindestens 500 Mbit/s nachfragen werden. Die Top-Level-Nachfrager (laut WIK 12 Mio. Haushalte) werden 1 Gbit/s benötigen (vgl. WIK, 2016, S. 2). 22 genannte Hybrid Fiber Coax (HFC)-Netze; wie im Telefon-Festnetz auch bestehen die Backbones bereits aus Glasfaser). Analog zu den FTTx-Technologien rückt die Glasfaser damit immer näher an den Endkunden heran. Dabei hat das Koaxialkabel (dessen Kern auch aus Kupfer ist) den Vorteil, dass es „wegen seines anderen Aufbaus mehr Daten transportieren [kann; Anmerkung des Verfassers] als die gewöhnlichen zweiadrigen Kupferdrähte“28 im Festnetz. Durch die Entwicklung neuer Standards zum Datentransport über die HFC-Kabel (so genannte DOCSIS-Standards) sind sehr hohe Bandbreiten auch dann möglich, wenn die Koaxialkabel nicht auf dem ganzen Weg zum Kunden durch Glasfaserkabel ersetzt werden (sondern z.B. nur bis zum Koaxverstärker). Einfach ausgedrückt, sorgen die neuen Übertragungsstandards dafür, dass die Kabelfrequenzen – über die die Inhalte transportiert werden – effizienter genutzt werden können. Der aktuell am weitesten verbreitete Standard DOCSIS 3.0 ermöglicht Geschwindigkeiten bis zu 400 Mbit/s. Mit DOCSIS 3.1, dem Standard der nächsten Generation, sind auch über die hybriden Netze Bandbreiten im Gigabitbereich möglich (theoretisch bis zu 10.000 Mbit/s).29 2.3.3 Mobilfunk Bisher wurden nur leitungsbasierte Breitband-Zugangstechnologien betrachtet. Eine leitungsungebundene Lösung ist der Mobilfunk. Im Zentrum seiner Architektur steht eine Sendeanlage. Sie sendet Funksignale aus, die ein bestimmtes Frequenzspektrum nutzen. Dieses Spektrum „ist eine begrenzte und nicht zu vervielfältigende öffentliche Ressource. Die Möglichkeit der Nutzung dieser Frequenzen kann daher nicht allein dem freien Spiel der Kräfte auf dem Markt überlassen werden.“30 Es ist stattdessen eine regulierte Verteilung der Frequenzen nötig. In Deutschland werden sie von der Bundesnetzagentur (BNetzA) versteigert. Von der Sendeanlage aus erfolgt auch die Anbindung ans Backbone – entweder leitungsgebunden per Glasfaserkabel oder per so genanntem Richtfunk. Die von der Anlage ausgehenden Signale bilden eine Funkzelle, in die sich Endkunden mit einem mobilen TE einloggen können. Die verfügbare Bandbreite in den Zellen hängt ab von mehreren Faktoren: Erstens der Entfernung zum Sender, zweitens der Topografie des Empfangsgebietes und drittens der Bebauung. Außerdem sinkt die 28 Hauck (2010). 29 Vgl. ANGA (2016a), S. 2; ANGA (2016b), S. 6-8; Wernick und Henseler- Unger (2016), S. 22. 30 BNetzA (a). 23 Bandbreite, je mehr Nutzer in der Zelle aktiv sind und je intensiver ihr Datenverbrauch ist.31 Mit dem aktuell am weitesten verbreiteten Mobilfunkstandard LTE (Standard der vierten Generation, 4G) sind theoretisch Übertragungsraten bis zu 300 Mbit/s im Download möglich (mit LTE Advanced sogar bis zu 1000 Mbit/s).32 In der Realität werden diese theoretischen Bandbreiten gerade in ländlichen Regionen aber meist nicht erreicht. Das liegt vor allem am Faktor Entfernung im Zusammenspiel mit den für die Übertragung nötigen Frequenzen. Wie ausgeführt, sind letztere nur begrenzt verfügbar und müssen von den Mobilfunkbetreibern erworben werden. Diese sind daher an einer effizienten Nutzung der Frequenzen interessiert. Um weitläufige, wenig besiedelte Landstriche mit mobilem Internet zu versorgen, nutzen die Betreiber vor allem niedrige Frequenzen (etwa im Bereich von 700, 800 Megahertz (MHz)), die eine größere Reichweite haben als hohe Frequenzen. Das hat den Vorteil, dass weniger Sendeanlagen errichtet werden müssen. Der Nachteil ist, dass solche niedrigen Frequenzen weniger Leistung (Bandbreite) erbringen können und zudem ihre Strahlen weniger punktgenau aussenden als hohe Frequenzen.33 Laut Modellrechnungen des ITK-Branchenverbandes Bitkom sind mit LTE im niedrigen Frequenzbereich maximal 20 Mbit/s möglich. Die fortschrittlichste LTE-Advanced-Technologie erlaubt in diesem Frequenzbereich zwar theoretisch 30 bis 180 Mbit/s, doch mit zunehmender Entfernung vom Funkturm nehmen die möglichen Bandbreiten ab. Am Rande von Funkzellen sind laut Bitkom selbst mit LTE-Advanced nur 18 bis 45 Mbit/s möglich.34 31 Vgl. Hessler (2015), S. 63; Fornefeld und Logen (2013), S. 10. 32 Vgl. Wernick und Henseler-Unger (2016), S. 22. Mit dem Mobilfunkstandard 5G, der wahrscheinlich ab 2020 eingeführt werden wird, sollen bis zu 50.000 Mbit/s im Download möglich sein (vgl. ebd.). 33 Vgl. Grove, Picot, Jondral und Elsner (2011), S. 34; Reents (2016), S. 9; Düsterhöft. 34 Vgl. Bitkom (2013), S. 4. 25 3 Kosten und Rentabilität des NGA-Ausbaus Wie in Kapitel 1 beschrieben, ist die NGA-Breitbandverfügbarkeit in ländlichen Regionen wesentlich schlechter als in städtischen Gebieten. Hauptursache hierfür sind die hohen Ausbaukosten auf dem Land. Gründe für die hohen Kosten sollen im Folgenden dargestellt werden, vor allem für die FTTx-Festnetztechnologien, da für diese aussagekräftige Kosten- und Rentabilitätsstudien vorliegen. 3.1 Telefon-Festnetz Die größten Kostentreiber beim FTTx-Ausbau stellen die Investitionen in die passive Infrastruktur dar, d.h. in die Verlegung der Glasfaserkabel (passiv, weil die Kabel keine eigene Stromversorgung brauchen). Je nach gewählter FTTx-Architektur machen dabei Tiefbau- bzw. Grabungsarbeiten (und die anschließende Wiederherstellung der Oberfläche) 80 bis 90% der Kosten aus. Da bei FTTC-Ansätzen nur zwischen HVt und KVz Glasfaser verlegt wird und auf der restlichen Strecke das Kupferkabel bestehen bleibt, fallen die Grabungskosten entsprechend geringer aus.35 Der Aufbau eines FTTx-Netzes ist vor allem aufgrund der Grabungsarbeiten durch hohe Fixkosten gekennzeichnet. Das Wissenschaftliche Institut für Infrastruktur und Kommunikationsdienste (WIK) hat in den vergangenen Jahren in diversen Studien die Kosten für den FTTx- Ausbau geschätzt. Aufgrund des hohen Fixkostenblocks hat das WIK – über alle Studien hinweg – drei nachfrageseitige Faktoren identifiziert, die die Rentabilität der Investitionen entscheidend beeinflussen: - die Besiedlungs- bzw. Bevölkerungsdichte (die Zahl der Teilnehmeranschlüsse, die in einem Gebiet erschlossen werden können); - die erzielbare Penetrationsrate (der prozentuale Anteil an Kunden, der innerhalb eines Ausbaugebiets tatsächlich angeschlossen wird (Marktanteil)); - die Zahlungsbereitschaft der Kunden.36 Im Folgenden werden wesentliche Ergebnisse aus zwei WIK-Studien kurz vorgestellt. Doose, Elixmann und Jay haben 2009 ermittelt, dass die Kosten für den FTTC- und FTTH(-P2P)-Ausbau entscheidend von der Bevölkerungsdichte abhängen. Insgesamt differenzieren sie acht 35 Vgl. Wernick (2016), S. 5. 36 Vgl. Wernick (2016), S. 6. 26 Cluster, die unterschiedlich stark besiedelt sind. Im ländlichsten, am wenigsten besiedelten Cluster (≤ 100 Haushalte pro km²) sind Investitionen in Höhe von 2.009 Euro nötig, um einen Teilnehmer an FTTC anzuschließen; bei FTTH-P2P sind es 4.506 Euro. Im etwas weniger ländlichen Cluster (100 < Haushalte pro km² ≤ 500) sind die Kosten bereits wesentlich niedriger (796 Euro bei FTTC und 2.613 Euro bei FTTH-P2P). Im am dichtesten besiedelten Stadtcluster (>10.000 Haushalte pro km²) schließlich sind nur 129 Euro bzw. 596 Euro nötig.37 Eine 2011/2012 von Jay, Neumann und Plückebaum konzipierte Studie basiert auf der von Doose et al., ist aber methodisch ausgefeilter. Die Autoren bereiten detaillierte Geodaten über HVt-Standorte, Gebäude, Straßen etc. auf, um darauf aufbauend die Kosten präziser schätzen zu können. Zudem unterscheiden sie insgesamt 20 Cluster mit jeweils gleicher Teilnehmerzahl. Interessant mit Blick auf die Bevölkerungsdichte: 80% der potenziellen Teilnehmer leben auf einem Drittel der Fläche Deutschlands, in den Clustern 1 bis 16. Demgegenüber bildet auch Cluster 20 allein ein Drittel der Fläche ab, in dem aber nur 5% der Teilnehmer leben. Jay et al. analysieren keine FTTC-, sondern nur FTTB/H-Lösungen (darunter verschiedene Architekturen, die an dieser Stelle nicht im Detail interessieren). Ihr Ergebnis ist, dass ein solcher reiner Glasfaserausbau bei marktüblichen Preisen (im Schnitt 38 Euro pro Anschluss) für 20 bis 45% der Teilnehmer in Deutschland profitabel ist. Dabei gehen die Autoren davon aus, dass ein neues FTTB/H-Netz einen Marktanteil von 70% erreicht (was ambitioniert erscheint). Auch bei einer solchen Penetrationsrate sind die Kosten in den von ihnen modellierten ländlichen Clustern so hoch, dass Kunden in diesen dünn besiedelten Regionen 70 bis 80 Euro im Monat für einen Anschluss zahlen müssten, um den Ausbau profitabel zu machen (die genaue Profitabilitätsgrenze hängt von der gewählten Architektur ab).38 Bei ihren Berechnungen gehen die Autoren zudem von einem 37 Vgl. Doose et al. (2009), S. 65-69. 38 Selbst wenn man annimmt, dass in ländlichen Regionen der Leidensdruck der Verbraucher aufgrund der Absenz hoher Internetgeschwindigkeiten hoch ist, ist derzeit wohl nicht mit einer solch hohen Zahlungsbereitschaft zu rechnen. Eine Studie der Europäischen Kommission zeigt, dass für die Verbraucher der Preis das mit Abstand wesentlichste Kriterium bei der Auswahl eines Internetanschlusses ist. In Deutschland gaben 2014 67% der Befragten an, dass ihnen der Faktor „Preis“ am wichtigsten ist; zum Vergleich: den Faktor „Maximale Downloadgeschwindigkeit“ nannten nur 38% als wichtigsten (Mehrfachnennungen waren möglich; vgl. Europäische Kommission, 2014, S. 100). Eine etwas ältere Studie (im Auftrag des Internetanbieters United Internet) kam 2010 zu dem Ergebnis, dass 62% der befragten Nutzer zwar bereit waren, mehr für eine höhere Bandbreite zu zah- 27 „steady state“ aus, in dem das neue Glasfasernetz bereits völlig das heutige Kupfernetz ersetzt hat, Kosten der Migration und des Parallelbetriebs werden vernachlässigt. Existiert entgegen dieser Annahme beispielsweise ein konkurrierendes FTTC-Netz (mit einem verbleibenden Kupferabschnitt), wird ein FTTB/H-Ausbau noch weniger profitabel. Lässt man andere in der Analyse getroffene Annahmen fallen, könnte dies hingegen dazu führen, dass der FTTB/H-Ausbau in manchen Gegenden profitabler wird – wohl aber nicht in ländlichen Regionen. Erstens gehen die Autoren von einem Vollausbau des jeweiligen Clusters aus. Ein besonders fokussierter Teilausbau nur in dicht besiedelten Straßen (z.B. mit mehreren Mehrfamilienhäusern) könnte hingegen die Kosten senken. Solch dicht besiedelte Wohnviertel sind auf dem Land aber wohl selten. Zweitens wird im Basisszenario dieser Studie (wie in der Studie von Doose et al. auch) vorhandene Infrastruktur des alten Kupfernetzes (und auch sonstige Infrastruktur, z.B. Kabelschächte von Energieversogern) vernachlässigt. Jay et al. untersuchen daher in einem zweiten Schritt, welche Einsparpotenziale möglich sind, wenn bestehende Leerrohre des Kupfernetzes mitgenutzt werden können (Rohre und Kabelschächte anderer Infrastrukturträger, z.B. von Energieversorgern, betrachten sie aus Mangel an belastbaren Daten nicht). Die entscheidende Frage ist, wie viele solcher Rohre es überhaupt gibt. Die alten Kupferdoppeladern sind nämlich entweder als Erdkabel verlegt oder als Röhrenkabel. Nur im letzteren Fall sind sie in ein Rohr eingezogen, in dem eventuell noch Platz ist für weitere Kabel. Nur dann sind Kosteneinsparungen möglich: Laut Marktteilnehmern kostet es rund 180 Euro, wenn man einen Meter Glasfaser selbst eingräbt, aber nur zwischen 80 Cent und 1,20 Euro, wenn man die Faser durch bestehende Leerrohre schießt.39 Genaue Daten über den Anteil an Erd- und Röhrenkabeln im Kupfernetz liegen nicht vor. Die Autoren schätzen, dass zwischen HVt und KVz landesweit im Schnitt 30% des Kupfernetzes aus Röhrenkabeln bestehen, zwischen KVz und Kunden im Schnitt nur 10%.40 In dünn besiedelten Regionen gehen sie davon aus, dass der Anteil an Röhrenkabeln sogar noch wesentlich geringer ist. Die Autoren schlussfolgern, dass die mögliche len, im Schnitt aber nur 6,85 Euro. 38% der Befragten waren gar nicht dazu bereit (vgl. Hoffmann, 2010, S. 21). 39 Vgl. Maier (2007). 40 Der relativ höhere Anteil bestehender Leerrohre zwischen HVt und KVz steigert die Attraktivität von FTTC, da die Glasfaser ja hier nur bis zum KVz gelegt wird. 28 Mitnutzung bestehender Infrastruktur des alten Kupfernetzes die Ausbaukosten nur wenig senkt – gerade auf dem Land.41 Die Kosten für den Glasfaserausbau könnten zudem durch neue Verlegungsmethoden gesenkt werden. Zu denken ist beispielsweise an Techniken wie Mini-Trenching42 oder Hydro-Verfahren (Bohrspülungen), die schon teilweise erprobt werden und Einsparpotenziale von bis zu 30% der Tiefbauinvestitionen versprechen.43 Bei Glasfaserkabeln ist davon auszugehen, dass sie als Röhrenkabel verlegt, also in eine Röhre eingezogen und nicht einfach in der Erde vergraben werden. Die Kosten für die Röhrenverkabelung sind zwar höher. Glasfaserstränge sind aber sensibler als Kupferdrähte gegen- über mechanischen Belastungen und brauchen daher mehr Schutz.44 Zudem sind Wartung und Reparatur bei Röhrenverkabelung einfacher und weitere Unternehmen (Konkurrenten) könnten Kabel durch die Röhren ziehen – auf letzteren Punkt wird noch näher einzugehen sein. Auch Jay et al. nehmen in ihrer Studie an, dass Glasfaserkabel ausschließlich als Röhrenkabel verlegt werden.45 3.2 TV-Kabel- und Mobilfunknetz Über die Kosten beim Aufbau NGA-fähiger Kabel- und Mobilfunknetze liegen keine vergleichbaren Studien wie beim FTTx-Aufbau vor. Daher sollen im Folgenden nur kurz die jeweiligen Kostenkomponenten kurz umrissen werden: - TV-Kabelnetz: Prinzipiell gilt hier vieles, was schon beim Telefon- Festnetz beschrieben wurde. Werden die Koaxial- durch Glasfaserkabel ersetzt, fallen hierbei Grabungskosten an, sofern keine Leerrohre zur Verfügung stehen. Allerdings hat das Kabelnetz den Kos- 41 Dieser Abschnitt folgt Jay et al. (2011), S. 39-41 und Jay et al. (2012), S. 51-55. 42 Beim Mini-Trenching werden die Kabel in geringer Tiefe verlegt (etwa 20 cm unter der Erde), in schmalen, meist aufgefrästen Gräben oder Schlitzen. Trotz möglicher Kostensenkungspotenziale wird die Technik auch kritisch gesehen. Ein Argument der Gegner ist die verminderte Leitungssicherheit, da die Kabel nicht tief unter der Erde liegen (vgl. Kafka, 2012). 43 Vgl. Wernick und Henseler-Unger (2016), S. 12-13. Noch stärker könnten die Kosten durch Luftverkabelung reduziert werden – bis zu 85%, wenn vorhandene Masten und Aufhängungen (des Strom- oder Telefonnetzes) mitgenutzt werden könnten. Diese Verlegungsmethode wird hierzulande aber kritisch betrachtet (vgl. ebd.). Nachteile von Luftkabeln sind z.B. ihre Witterungsanfälligkeit, aber auch die optische Sichtbarkeit für die Bevölkerung. 44 Vgl. Wikipedia (a). 45 Vgl. Jay et al. (2011), S. 21. 29 tenvorteil, dass die Glasfaser aufgrund der Leistungsfähigkeit der hybriden HFC-Netze – verglichen mit den Festnetz-Lösungen – nicht so nah an den Kunden rücken muss, um analoge Leistungsparameter zu erreichen. Für die Aufrüstung auf neue DOCSIS- Standards sind keine Grabungsarbeiten nötig. Unterm Strich sind daher weniger Investitionen erforderlich, um die Kabelnetze zu Highspeed-Netzen auszubauen (relativ zu den FTTx-Lösungen des Telefonnetzes).46 Sollte in einer Region hingegen ein gänzlich neues Kabelnetz aufgebaut werden (weil bislang ein solches dort nicht existiert), werden die Kosten vergleichbar mit denen des FTTB/H- Ausbaus sein. Tatsächlich konzentrieren sich die bestehenden Kabelnetze in Deutschland auf die Ballungsgebiete, in ländlichen Räumen gibt es meist keine.47 - Mobilfunknetz: Unter den potenziellen NGA-Lösungen ist der Mobilfunk die kostengünstigste.48 Kosten fallen an für den Erwerb der nötigen Funkfrequenzen, für Aufbau und Betrieb der Sendeanlagen sowie für die Anbindung letzterer an das Kernnetz. Die leitungsgebundene Anbindung per Glasfaser dürfte dabei teurer sein als die per Richtfunk, sofern Grabungsarbeiten nötig sind. 46 Vgl. Vogelsang (2013), S. 26; Monopolkommission (2011), S. 84. 47 Vgl. Fornefeld und Logen (2013), S. 10. 48 Vgl. BLE (2014), S. 10. 31 4 Zwischenfazit und weitere Vorgehensweise I Die Ausführungen zu Kosten und Rentabilität haben deutlich gemacht, dass der NGA-Ausbau eine gewaltige Herausforderung ist. Gerade in ländlichen Regionen ist seine Rentabilität ungewiss, weil dort die Besiedlungsdichte gering und die Ausbaukosten hoch sind. Es ist daher davon auszugehen, dass ein rein privatwirtschaftlicher NGA-Ausbau unter den derzeitigen technologischen Bedingungen nicht flächendeckend in jeden Winkel des Landes erfolgen wird. Dies gilt in jedem Fall für die leitungsgebundenen Lösungen. Die günstigere Mobilfunklösung hingegen erreicht mit dem aktuellen 4G-Standard nicht flächendeckend NGA-Bandbreiten. Wie kann in dieser Gemengelage der Staat auf den Plan treten, dessen Rolle beim Ausbau von NGA-Breitbandinfrastruktur in dieser Arbeit untersucht werden soll? Die Entscheidung gegen Investitionen aufgrund des Risikos ungewisser Rentabilität ist mitunter die Essenz unternehmerischen Handelns. Anders formuliert, gehört die unternehmerische Unsicherheit, im Erfolgsfall Gewinne und bei Scheitern Verluste zu erzielen, zum Wesenskern des Hayekschen „Wettbewerbs als Entdeckungsverfahren“49. Dieses Risiko begründet selbstverständlich kein staatliches Eingreifen. Im Gegenteil, solche Eingriffe kämen der „Anmaßung von Wissen“50 gleich: Die im „Informations- und Allokationssystem Markt“51 organisierten Unternehmen verstehen selbst am besten – in jedem Fall besser als zentrale, staatliche Instanzen –, die im Wettbewerbsprozess entstandenen Informationen zu verarbeiten und zu deuten und darauf aufbauend Investitionsentscheidungen zu treffen. Finden dennoch staatliche Eingriffe rein auf der Basis statt, dass marktliche Akteure aufgrund des Risikos ungewisser Rentabilität nicht oder zu wenig investieren, entziehen sich diese Eingriffe ökonomischen Referenzkriterien und fußen auf außerökonomischen Gründen. Denn was „zu wenig“ heißt, wird marktexogen definiert. In der Regel von der Politik, die in ihrer Argumentation dann auf Versorgungsziele oder Verteilungsarrangements abzielt, die aus gesellschaftlicher Perspektive wünschenswert erscheinen. Um diese Art staatlicher Eingriffe soll es in der vorliegenden Arbeit nicht gehen, nur in der Schlussbetrachtung wird nochmals kurz auf sie eingegangen. In dieser Arbeit geht es um ökonomisch gerechtfertigte 49 Hayek (1969). 50 Hayek (1975). 51 Roth (2014), S. 149. 32 Staatseingriffe, nicht um politisch gewollte. Legitimiert werden kann staatliches Handeln durch die Marktversagenstheorie, die im analytischen Teil B im Zentrum steht. Dabei geht es um Situationen, in denen der Marktprozess mit Friktionen behaftet ist, sodass das individuell rationale Verhalten der Marktakteure zu kollektiv suboptimalen Ergebnissen (Ressourcenallokationen) führt – mehr dazu im nächsten Kapitel. In diesen Situationen ist es die originäre Rolle des Staates, die Marktfriktionen durch Setzung geeigneter Regeln zu beheben.52 Im Folgenden Teil B wird daher in einem ersten Schritt (in Kapitel 5) analysiert, ob beim NGA-Ausbau in ländlichen Regionen Friktionen im Marktprozess bestehen (Marktversagenstatbestände), welche die unternehmerischen Investitionen in den Ausbau hemmen. Auch im zweiten Schritt (in Kapitel 6) wird es um Situationen gehen, in denen die Investitionsanreize aufgrund von Marktversagenssymptomen gedämpft werden. Diese Symptome resultieren aber nicht aus Friktionen im Marktprozess, sondern werden erst durch vor- oder nachgelagertes staatliches Handeln provoziert – es handelt sich tatsächlich also nicht um Markt-, sondern um Staatsversagen. In Teil C werden die Rückschlüsse für die Rolle des Staates gezogen, die sich aus den Marktversagenstatbeständen und -symptomen ergeben. Dabei geht es um ökonomisch gebotene Maßnahmen und Regeln, die der Staat ergreifen kann, um die Rentabilität privater Investitionen zu erhöhen und den marktlichen NGA-Ausbau zu stärken und zu forcieren. Selbst ein vom Staat etablierter effizienter regulatorischrechtlicher Rahmen wird aber vermutlich nicht sicherstellen, dass ein NGA-Ausbau flächendeckend erfolgt, dafür ist die Rentabilität vielerorts zu ungewiss. Aber ein solcher Rahmen kann erstens die privaten Investitionen so weit wie möglich vorantreiben. Zweitens kann er, falls der Staat darüber hinaus auf außerökonomische, flächendeckende Versorgungziele abzielt und dafür öffentliche Mittel aufwenden will, den staatlichen Finanzierungsbedarf zumindest reduzieren. Solche von ökonomischen Kriterien entkoppelten Staatseingriffe sind aber, wie dargestellt, nicht Untersuchungsgegenstand dieser Arbeit. 52 Vgl. Roth (2014), S. 149.

Chapter Preview

References

Zusammenfassung

Deutschland mag Exportweltmeister sein und eine der stärksten Wirtschaftsmächte auf dem Globus. Doch beim Zukunftsthema Breitbandausbau hinkt das Land der Weltspitze hinterher: Geht es um die verfügbare Internetgeschwindigkeit, belegt die Bundesrepublik in globalen Rankings nur Plätze im unteren Mittelfeld – hinter Ländern wie Lettland oder Rumänien. Gerade in dünn besiedelten Regionen sind hohe Bandbreiten hierzulande meist nicht verfügbar. Private Unternehmen investieren dort nur zaghaft in hochleistungsfähige Breitbandnetze, weil die Rentabilität dieser Ausbauprojekte oft ungewiss ist. Stephan Degenhardt untersucht, ob an dieser Stelle tatsächlich ein Marktversagen vorliegt und steuerfinanzierte Staatssubventionen unausweichlich sind. Als Alternative zeigt er auf, wie der Staat den Ausbau durch die freien Marktakteure vorantreiben kann, indem er einen effizienten regulatorisch-rechtlichen Rahmen etabliert, der die Rentabilität privater Investitionen erhöht.