Quel Datacenter sous “les tropiques” ?

Les Datacenters sont les nouvelles usines de notre siècle. Nos photos, nos vidéos, nos Emails, nos documents, nos réseaux sociaux, nos services bancaires, nos services publics, et j’en passe, sont délivrés à partir des serveurs hébergés dans ces Centres de Données ou encore ces “Usines à données”

Ces Datacenters sont de plus en plus immenses, et bien évidement leur consommation d’électricité va avec. Une estimation faite récemment indique que ceux-ci consommeront trois plus d’électricité dans la prochaine décennie.

Dans un article du “Independent”, les Datacenters au cours de l’année 2015 ont consommé 416.2 TWh d’électricité. Cela représente plus que la consommation annuelle d’un pays comme le Royaume-Uni. Ceux-ci deviennent un vecteur important du réchauffement climatique.

Une étude (United States Data Center Energy Usage Report, June 2016) indique qu’aux Etats-Unis, en 2014, la consommation électrique de l’ensemble des Datacenters représentait 1.8% de la consommation globale des Etats-Unis et cette consommation correspond à la consommation annuelle de 6,4 millions de foyers américains.

Toute cette énergie a un coût non négligeable pour les différents exploitants de Datacenters. Celui-ci représente 30 à 50% des coûts d’exploitation d’un Datacenter.

Quand on est proche de l’Equateur, cette ligne imaginaire tracée autour de la Terre, à mi-chemin de ses pôles qui marque la séparation entre l’hémisphère nord et l’hémisphère sud, et qu’on a une température moyenne sur l’année à 28°C, une très forte humidité, et quand en plus on a de sérieux problèmes d’électricité et que l’offre existante n’arrive pas déjà à couvrir la demande, quelles solutions adoptées ? Quelles stratégies ? Faut-il abandonner et se dire que ces immenses Datacenters ne sont l’apanage que des pays très développés aux températures tempérées ?

Dans ce post, je fais un tour d’horizon de quelques solutions possibles, elles sont nombreuses et sont en évolution permanente ; il est donc impossible de les aborder toutes ici.

Pour commencer, je vous présente ci-dessous la carte des principaux Datacenters de Google, on observe bien une bande sur laquelle il n’y a aucune présence


Source: https://www.google.com/about/datacenters/inside/locations/index.html

Quelques Standards ou guide par rapports aux Datacenters

ASHRAE TC 9.9 – 2011 Thermal Guidelines for Data Processing Environments

ASHRAE, L’American Society of Heating, Refrigerating and Air Conditioning Engineers est une organisation internationale technique dans le domaine des génies thermiques et climatiques (chauffage, ventilation, air climatisé, production de froid). Cette organisation a été fondée en 1894 et est composée de plus de 50 000 membres qui viennent du monde entier.

Les directives thermiques de l’ASHRAE (Source : http://ecoinfo.cnrs.fr/?p=11085 ) sont particulièrement bien documentées dans le domaine des Datacenter en raison des nombreux retours d’expérience des groupes de travail des fabricants d’équipements informatiques. Jusqu’à il y a peu, chaque fabricant définissait ses propres normes environnementales.

Le comité TC 9.9 de cet organisme s’occupe de définir les normes environnementales des bâtiments qui hébergent des équipements électroniques. Il a publié en 2004 le livre « Thermal Guidelines for Data Processing Environments » qui aborde la plupart des questions concernant la conception et l’exploitation d’un Datacenter d’un point de vue thermodynamique. Les principaux fabricants d’ordinateurs (par exemple IBM, HP, Intel, Sun, Dell, etc.) sont fortement représentés au sein de ce comité. Les informations publiées par celui-ci permettent donc d’avoir une idée assez précise des exigences environnementales actuelles et futures du matériel informatique et répondent à certaines questions fondamentales relatives aux Datacenter comme les températures et les taux d’humidité recommandés ainsi que la localisation des points de mesure.

La dernière mise à jour de ces recommandations date de 2015 dans « THERMAL GUIDELINES FOR DATA PROCESSING ENVIRONMENTS, 4TH ED ». En quelques années les fabricants de matériel informatique ont fait des efforts significatifs pour certifier le fonctionnement de leurs produits dans des conditions environnementales moins contraignantes. Plusieurs constructeurs vont dès aujourd’hui au delà des limites ASHRAE.

Avant la formation de ce comité, il faut savoir qu’il était généralement accepté que les Datacenter devaient opérer dans des températures comprises entre 20 à 21°C, et on se disait que le froid était une excellente chose. Chaque constructeur de matériel avait sa propre norme et le rôle de ce comité a été de trouver un consensus parmi les principaux constructeurs de matériel.

Il y a eu plusieurs évolutions dans les recommandations sur les températures des Datacenter qui sont classes par classe en fonction de leur criticité et de leurs usages. En 2011, de nouvelles classes on été définies, les Datacenter correspondent aux classes A1, A2, A3, A4. A1 étant la classe la plus haute délivrant des services les plus critiques.

Le tableau ci-dessous montre l’évolution pour la classe A1 entre les recommandations de 2004, 2008, 2011 et 2015

 

Recommandations 2004 Recommandations 2008 Recommandations 2011 Recommandations 2015
Low End Temperature 20°C 18°C 15°C 15°C
High End Temperature 25°C 27°C 32°C 32°C
Low End Moisture 40% RH Point de condensation à 5.5°C Point de condensation à 5.5°C 12% RH et point de condensation à 8°C
High End Moisture 55% RH 60% RH et point de condensation à 15°C 60% RH et point de condensation à 15°C 80% RH et point de condensation à 17°C

 

Il ressort également que l’altitude max recommandée pour les Datacenter est de 3050 m. Donc pas de Datacenter au sommet du Mont Kilimandjaro ou du Mont Cameroun

Tous les standards et documents produits par le comité TC 9.9 sont disponibles à l’adresse : https://tc0909.ashraetcs.org/

D’autres standards à connaître

La classification Tier de Uptime Institute

Uptime Institute est une organisation qui a mis en place un standard de classification des Datacenter par rapport à leur performance, leur disponibilité. Cette classification est aujourd’hui mondialement reconnue. La classification comporte les niveaux présentés dans le tableau suivant :

Tier I : Basic capacity

No generator or optional

Basic UPS, non redundant

Single utility

99.671% Availability

Tier II : Redundant Capacity Components

Generator

N+1 UPS with redundant component

Single Utility, N+1 Mechanical System

99.741% Availability

Tier III : Concurrently Maintainable

N+1 Generator System

N+1 UPS with redundant components

Active/Passive, Utility source, N+1 Mechanical System

99.982% Availability

Tier IV : Fault Tolerance

2N Generator System

2N UPS System

Dual Active Utility, 2N Mechanical System

99.995% Availability

Un Datacenter doit être certifié par l’Uptime Institute pour revendiquer un niveau de Tier

Pour aller dans le détail avec les différents niveaux de Tier il faut aller sur le lien : https://journal.uptimeinstitute.com/explaining-uptime-institutes-tier-classification-system/

Le standard ANSI/TIA 942-A 2014

Ce standard approuvé par l’ANSI (American National Standards Institute) définit 4 niveaux de classification qui jusqu’en Mars 2014 était nommé « Tier » tout comme le modèle Tier d’Uptime Institute. Aujourd’hui on parle de « Rated » ou « Rating ». Ces niveaux indiquent le niveau de fiabilité et de disponibilité du Datacenter.

Rated I – Niveau 1 (Basique)

  • Disponibilité 99,671 %
  • Sensible aux interruptions, qu´elles soient planifiées ou pas.
  • Une seule entrée de courant électrique et de distribution de la climatisation, sans composants redondants.
  • Sans exigences de sol surélevé
  • Générateur indépendant
  • Délai de mise en service: 3 mois
  • Temps d´inactivité annuel: 28,82 heures
  • Doit être fermé complètement pour la maintenance préventive

Rated II- Niveau II (Composants redondants)

  • Disponibilité 99,741 %.
  • Moindre sensibilité aux interruptions.
  • Une seule entrée de courant électrique et de distribution de climatisation, avec un composant redondant.
  • Inclus sol surélevé, UPS et générateur.
  • Délai de mise en service: 3 à 6 mois.
  • Temps d´inactivité annuel: 22,0 heures.
  • La maintenance de l´alimentation et autres parts de l´infrastructure obligent à une fermeture de traitement.

Rated III- Niveau III (Maintenance concourante)

  • Disponibilité 99,982 %.
  • Pas d´interruption de fonctionnement pour les pauses planifiées, mais possibilité de problèmes pour les cas imprévus.
  • Accès de courant et climatisation multiples, par un seul cheminement actif. Inclus composants redondants (N+1).
  • Délai de mise en service: 15 à 20 mois.
  • Temps d´inactivité annuel: 1,6 heures.

Rated IV- Niveau IV (Tolérant aux erreurs)

  • Disponibilité 99,995 %.
  • Pauses planifiées : sans interruption de fonctionnement pour les data critiques. Possibilité de soutenir un défaut imprévu sans dommages critiques.
  • Accès de courant et climatisation multiples. Inclus composants redondants (2(N+1)). 2 UPS avec redondance (N+1) chacun.
  • Délai de mise en service: 15 à 20 mois.
  • Temps d´inactivité annuel: 0,4 heures.

Alors quelles solutions quand on réside sur la ligne équatoriale et quand en plus, on fait face à un déficit énergétique.

Le climat équatorial se caractérise par, de fortes précipitations, une température moyenne de 28 °C. C’est un climat chaud mais avec un taux d’humidité très élevé, ce qui donne l’impression de moiteur et d’un temps lourd.

Quand on sait que la facture d’énergie représente 30 à 50% des frais de fonctionnement d’un Datacenter et que pour beaucoup cette énergie est consacrée au refroidissement, on peut se demander comment ces pays peuvent faire face, tout en sachant que la plupart de ceux-ci connaissent une précarité dans l’approvisionnement en électricité.

Plusieurs solutions sont déjà appliquées ou expérimentées notamment par les grands acteurs du Cloud pour réduire leur facture énergétique. L’expression « Datacenter éco-responsable » est de plus en utilisé.

La mesure utilisée pour juger de l’efficacité énergétique d’un Datacenter est le PUE (Power Usage Effectiveness). C’est le rapport entre l’énergie totale consommée par le Datacenter (les équipements purement informatiques (serveurs), des équipements de l’environnement du Datacenter (UPS, lumières, climatisations) sur l’énergie consommée par les équipements purement informatiques.

En clair pour un PUE de 1,5 cela signifie que pour 1 KWh d’électricité utilisée par les serveurs, il faut dépenser 0,50 KWh supplémentaire dans le refroidissement du bâtiment, l’éclairage. Sachant que le PUE théorique « parfait » est de 1, la moyenne en 2011 des PUE est estimée à 1.8

Amélioration de la gestion du refroidissement des Datacenter

Le refroidissement constituant à lui tout seul près de 33% des consommations d’énergie d’un Datacenter, il faut donc commencer par améliorer la gestion du refroidissement des Datacenter. Plusieurs pistes sont envisageables, je n’en cite que quelques unes.

L’augmentation de la température du Datacenter

Comme vu précédemment avec la recommandation ASHRAE TC 9.9 dans le document publié en 2011 « Thermal Guidelines for Data Processing Environments–Expanded Data Center Classes and Usage Guidance », on peut monter jusqu’à 32°C, ce qui est loin d’être négligeable, car chaque degré de refroidissement économisé peut un impact financier important.

Cependant le livre blanc 221 de Schneider électrique par Wendy Torell, Kevin Brown et Victor Avelar, à l’issue de plusieurs tests, indique des impacts imprévus de l’augmentation des températures dans un Datacenter. Ils indiquent que les économies générées par l’augmentation de la température peuvent être neutralisées par une augmentation de la consommation énergétique des équipements informatiques et des systèmes de traitement d’air.

Pour être précis, par rapport aux équipements informatiques, on constate notamment une consommation d’énergie plus grande des serveurs dû à l’augmentation de la température des CPU et donc un fonctionnement accru des ventilateurs pour réduire la température.

L’utilisation des allées chaudes et froides et leur isolation.

Le confinement des allées froides qui consiste à couvrir les extrémités des allées de racks, la partie supérieure des allées ou bien des deux afin d’isoler l’air y circulant

Le free cooling

C’est une méthode innovante et économique qui utilise l’air extérieur pour refroidir les serveurs. En fonction de la température extérieure, il s’agit ici tout simplement d’ouvrir les fenêtres pour refroidir les Datacenter.

Ce qui explique la course pour l’implémentation des Datacenter en Sibérie ou au Nord de l’Europe dans des régions ou la température est tempérée toute l’année pour pouvoir utiliser la technologie du free cooling. Malheureusement c’est une technologie qui semble inutilisable sur la ligne équatoriale.

Fonctionnement du free cooling (Source : https://www.sigma.fr/avis-experts/free-cooling-datacenter-green )

Des Datacenters sous la mer

Microsoft a démarré depuis Novembre 2014 un projet de Datacenter sous la mer. Celui-ci présente plusieurs avantages, notamment dans le refroidissement des serveurs en utilisant l’eau de mer. Un prototype a été construit et testé. Celui-ci est constitué par un conteneur de 17 tonnes de 3 mètres sur deux qui a émergé à 9 mètres de profondeur au large de San Luis Obispo en Californie. L’idée pour la suite du projet est de construire un containeur 5 fois plus grand qui serait remonté tous les 5 ans pour changer les équipements.

Un Datacenter sous la mer s’explique par le fait que la température des océans bien que pouvant atteindre 30°C à la surface, au niveau de l’équateur, elle décroît fortement avec la profondeur. L’eau profonde est froide et relativement homogène : à titre d’exemple, 47 % de l’eau de l’Atlantique a une température comprise entre 2 et 4 °C.

Les Datacenter sous-marins sont donc une option très intéressante au niveau de l’équateur à condition qu’on puisse les immerger dans des profondeurs plus importantes.

Les Datacenters en altitude

La région équatoriale dispose de plusieurs sommets de plus de 3000 m. En tenant compte du fait que la recommandation faite par ASHRAE est de 3050 m d’altitude maximum, on pourrait imaginer un Datacenter sur l’un des flancs du Kilimandjaro.

Au pied du Kilimandjaro, la température annuelle moyenne est de 23,4 °C alors qu’elle est de 5 °C à 4 000 mètres d’altitude et de −7,1 °C au sommet. En conséquence, son gradient thermique adiabatique est d’environ 0,6 °C tous les cent mètres. Le gradient thermique adiabatique est, dans l’atmosphère terrestre, la variation de température de l’air avec l’altitude. A 3000 m d’altitude, la température moyenne est de 11°C , ce qui donne des possibilités d’utiliser du free cooling donc des possibilités de réduction d’énergie nécessaire au refroidissement

Bien évidement construire un Datacenter en altitude nécessite que des voies de communication soient disponibles pour acheminer les équipements. Et également les infrastructures de télécommunication comme les réseaux fibre optiques et le réseau électrique pour amener l’énergie

L’utilisation des énergies propres renouvelables

L’énergie marine

Les océans sont un vaste réservoir d’énergie diverses qui couplés aux Datacenter permettent de réduire la facture énergétique et d’utiliser des énergies propres et renouvelables :

  • La marée avec les procédés du type «la Rance» et du type «hydroliennes»,
  • Le vent avec les éoliennes «en mer»,
  • La houle avec les « houlomotrices »,
  • La circulation générale des masses d’eaux avec le procédé « ETM – Energie Thermique des Mers ».

L’énergie éolienne onshore à l’opposée de l’énergie éolienne offshore « en mer »

Il s’agit des éoliens implantés à terre.

Une grande partie de l’Afrique est à cheval sur les zones équatoriales et tropicales du globe, et seules les régions du nord et du sud bénéficient du régime des vents d’ouest des latitudes tempérées. Aussi, les vitesses de vent sont généralement faibles dans beaucoup de pays de l’Afrique subsaharienne, particulièrement dans les pays enclavés. L’Afrique du Sud, l’Afrique du Nord et le littoral de la Mer Rouge (et de façon inattendue, une partie du Tchad et du Nord du Kenya) disposent de certains des meilleurs potentiels éoliens de la région.

(Source: Les énergies renouvelables en Afrique http://base.d-p-h.info/fr/fiches/dph/fiche-dph-7422.html)

L’énergie hydroélectrique

C’est l’énergie produite par les barrages hydroélectriques. Nul besoin de rappeler ici l’important potentiel de ligne équatorial et plus particulièrement l’Afrique.

Dans un article de Jeune Afrique “Le grand gâchis de l’hydroélectricité en Afrique” (source : http://www.jeuneafrique.com/mag/243578/economie/le-grand-gachis-de-lhydroelectricite-en-afrique/), il est indiqué que les fleuves du continent Africain représentent un potentiel considérable et sous-exploité: une énergie propre et parmi les moins chères au monde. Seulement 5 % du potentiel hydroélectrique de l’Afrique est utilisé. Selon l’Agence internationale de l’énergie (AIE), l’eau pourrait lui apporter 300 GW d’électricité. Soit l’équivalent de ce que peuvent produire 300 réacteurs nucléaires. À elle seule, la RD Congo a répertorié 200 sites, représentant 100 GW.

L’énergie solaire

Oui, il est possible de faire fonctionner entièrement un Datacenter avec de l’énergie solaire. Annoncé en 2013, puis en 2015, Apple va investir 2 milliards de dollars dans la construction d’un Datacenter en Arizona et celui-ci fonctionnera à 100% à l’énergie solaire à partir d’une centrale solaire de 18 MW constituée par une immense ferme de panneaux solaires, sur une surface de près de 67 hectares.

Pour ce qui est de l’Afrique le potentiel est immense mais très peu utilisé.

Au niveau des opérations IT

Des chemins de câbles suspendus

Quand le système de distribution d’air utilise le plancher pour la distribution de l’air froid, il faut opter pour des chemins de câbles suspendus, car le fait d’avoir des planchers remplis de câbles rend difficile la distribution de l’air froid vers les racks.

Des équipements IT basse consommation et capables de supporter un plus haut niveau d’humidité

Un exemple ici est la technologie du stockage qui est entrain d’évoluer vers des disques SSD qui chauffent moins que les disques HD. Ce qui peut avoir un impact sur le refroidissement. Pour ce qui est de la consommation le débat n’est pas tranché, par rapport au fait que les SSD consomment moins, apparemment dans certaines conditions c’est le contraire qui arrive.

Il en est également de l’utilisation de serveurs équipés de processeurs basse consommation énergie ou de faible quantité de chaleur dissipée

La consolidation des serveurs et la mutualisation des Datacenter

La consolidation des serveurs avec la virtualisation est entrée dans nos mœurs. C’est devenue une banalité. La technologie est en train d’évoluer vers de l’hyperconvergence. Ce sont des solutions combinant virtualisation, calcul, stockage et haute-disponibilité dans un jeu de serveurs redondants. Plusieurs acteurs sont présents sur ce marché : Nutanix, ScaleComputing, Simplivity, etc..

La mutualisation est un axe également qui peut permettre de développer des Datacenters qui sont capables de fournir du service à l’échelle d’un pays, d’une région, etc.

D’autres mesures opérationnelles

  • La construction des infrastructures adaptées pour les besoins présents mais extensible en cas de montée en charge de la demande. Ceci afin d’éviter d’avoir des Datacenter surdimensionnés qui consomment de l’énergie à perte.
  • L’arrêt de tous les systèmes qui ne sont pas ou très peu utilisés. Le fait d’arrêter quelques serveurs sur l’année, représente une économie importante.

  • L’utilisation des panneaux d’obturation et des brosses passe-câbles dans les racks informatiques pour éviter que l’air chaud s’échappe de l’allée chaude
  • Le regroupement des équipements produisant le même niveau de chaleur ou nécessitant un certain niveau de température ou d’humidité, pour permettre de gérer de manière plus ciblé le système de refroidissement

Conclusion

Ce post m’a permis de faire un tour d’horizon des solutions possibles qui pourraient être utilisées non pas seulement en zone tropicale, mais par tous, car le réchauffement climatique est l’affaire de tous et des économies d’énergie sont toujours une bonne chose pour tout le monde. Ces solutions évoquées dans ce post ne sont pqs exhaustives.

Réduire la consommation d’énergie des Datacenters de manière efficiente et va donc permettre à ces pays de la ligne équatoriale d’être capable de fournir, non plus seulement des usines géantes de textile mais également des usines géantes de données qui pourront rivaliser avec celles qui sont construites dans les régions tempérées.

Source :

  • Comment réaliser des economies d’énergie dans les datacenters grâce au câblage suspendu, Livre Blanc 159, Par Victor Avelar, APC by Schneider Electric
  • L’impact imprévu de l’augmentation des temperatures du datacenter, Livre Blanc 221, Par Wendy Torell, Kevin Bron, Victor Avelar, APC by Schneider Electric


Advertisement

Les Points d’échange Internet (IXP) : composants clés du développement d’Internet


Dans les stratégies de développement d’INTERNET, il est un composant essentiel qui n’est pas très souvent médiatisé : les points d’échange INTERNET (IXP).

Ceux-ci jouent un rôle aussi important que les réseaux fibres optiques, dans l’amélioration de la connectivité Internet dans les pays.

Il s’agit d’une infrastructure où l’ensemble des opérateurs de l’Internet peuvent s’interconnecter, et échanger du trafic, on parle de service de peering. Le peering consiste à échanger du trafic qui a son origine sur le réseau de l’un des opérateurs (ou de ses clients) et aboutit sur le réseau de l’autre (ou de l’un de ses clients) et ne fait généralement pas l’objet d’une facturation de l’un à l’autre.

Un IXP évite aux opérateurs d’avoir à établir des liens directs entre eux, un seul raccordement au point d’échange permettant à chacun d’échanger du trafic avec tous les autres opérateurs présents.

Les opérateurs raccordés concluent de gré à gré et de pair à pair, un accord d’échange (appelé «peering agreement») par lequel ils s’accordent pour s’envoyer et recevoir mutuellement du trafic.

Les opérateurs ne sont pas limités aux seuls fournisseurs de service INTERNET (ISP), des institutions économiques, académiques, gouvernementales peuvent également en faire partie.

Quels sont les bénéfices d’un point d’échanges Internet (IXP)?

Plusieurs bénéfices ont été identifiés :

Optimisation du trafic mondial

En s’échangeant directement le trafic local, on réduit donc ainsi le nombre de bonds à l’intérieur des réseaux pour l’échange de trafic Internet, on accroit accroît le nombre de voies d’acheminement possibles, on optimise la connectivité Internet internationale, et on accroît le taux de pénétration de l’Internet et son taux d’utilisation.

Optimisation de la latence

L’interconnexion directe, souvent localisée dans la même ville que les réseaux concernés, évite que les données n’aient à changer de ville, voire de continent, pour passer d’un réseau à un autre, ceci permet de réduire le temps de latence.

Optimisation de la bande passante

Compte tenu de la demande toujours plus grande de trafic Internet utilisant des services gourmands en largeur de bande, exemple des vidéos, une connexion à un IXP local peut permettre de transférer ce type de données de façon illimitée et gratuite, améliorant ainsi considérablement la bande passante entre clients de deux fournisseurs Internet voisins.

Optimisation du coût

Le trafic passant par un point d’échange n’est pas facturé alors que les flux vers le fournisseur de trafic montant du fournisseur d’accès à Internet, le sont. Les trafics allant outre-mer signifient donc le paiement des charges de transit à votre ISP

L’argent reste dans l’économie locale et peut être Utilisé pour fournir de meilleures infrastructures locales et des services aux clients

Les clients payent donc moins cher leur accès Internet, ce qui va générer un volume plus grand de clients et de transactions. Plus les clients vont souscrire et plus le fournisseur d’accès augmentera son chiffre d’affaires

Les services fournis par un IXP

En général les services de peering fournis par les IXP sont les suivants :

Peering local Public

Il s’effectue sur un lien de niveau 2 (shared fabric). Plusieurs participants s’interconnectent à travers un seul équipement physique, ou un ensemble de switches (commutateurs) considérés comme locaux.

Peering local Privé

C’est une interconnexion directe entre 2 réseaux à travers une liaison niveau 1 ou 2 qui offre une capacité dédiée non partagée par d’autres participants.

Peering local via RS

L’IXP met en place un Route-Server (RS) local permettant de simplifier les interconnexions entre les participants. En configurant une seule session sur le Route-Server local, il devient possible d’activer des sessions de peering locales avec plusieurs autres participants. Le peering local via RS simplifie donc la gestion du peering.

Peering distant via RS

Les plus grands IXP repartis sur plusieurs pays ou continents permettent aux participants de ses IXP de bénéficier de l’accès aux autres IXP ainsi qu’aux autres IXP auquel il est interconnecté via des Route-Servers

Les modèles institutionnels des IXP

Une variété de modèles institutionnels a été adoptée pour faire fonctionner les IXP. Ils se répartissent en trois catégories généralement :

Association des opérateurs Internet à but non lucratif

C’est le modèle le plus répandu. Les opérateurs dans le cadre d’une association neutre et indépendante opèrent l’IXP. Les contributions financières et ou humaines de chacun des membres permettent de couvrir le fonctionnement de l’infrastructure.

Les contributions financières sont déterminées par la vitesse (bande passante) de leurs connexions à l’IXP ou, moins fréquemment, par le volume de trafic qui passe à travers l’échange

L’IXP financé par un sponsor.

Très souvent le sponsor est un Pouvoir Public qui finance les infrastructures et les met à la disposition des opérateurs. Celui-ci peut réclamer des contributions financières aux participants ou prendre en charge l’ensemble des frais de fonctionnement.

L’IXP comme une entreprise commerciale

On les retrouve très souvent aux Etats-Unis, ou des entreprises commerciales opèrent des IXP. Ils agissent en tant que fournisseur neutre et ne font pas de concurrence aux autres fournisseurs de services Internet dans la fourniture de services aux utilisateurs finaux.

Les Prérequis pour la mise en place d’un IXP

Le site

Le site doit être accepté par l’ensemble des membres. Très souvent un emplacement dans un Datacenter est choisi

Le site abritant l’IXP doit évidemment être physiquement proche des réseaux des potentiels membres

Le site abritant l’IXP doit disposer de toutes les commodités permettant d’assurer un service en continu :

  • Energie électrique disposant d’onduleurs et de groupes électrogènes pour le secours
  • Climatisation
  • La disponibilité de nombreux liens ou réseau fibres optiques vers le site
  • La sécurité physique du site (anti-incendie, anti-intrusion, vidéo-surveillance,..)

Les opérateurs

Il faut être au moins trois opérateurs pour envisager un IXP

Des règles de fonctionnement bien définies

Des règles bien définies et acceptées par tous qui vont assurer l’indépendance, et la neutralité de la structure, sont indispensables.

Les cotisations ou les prix des prestations doivent être repartis ou définis de manière équitable

Les utilisateurs

Il faut évidemment que le contenu local Internet soit important et que les utilisateurs les consultent.

Les équipements réseau

Il s’agit très souvent de commutateurs réseau, de route-servers, …

Les ressources humaines

Les personnes qui seront en charge quotidiennement de faire fonctionner l’IXP. Il s’agit du personnel administratif, financier et technique.

Les installations étant très souvent peu complexes, pas besoin d’avoir une batterie d’ingénieurs. En tenant compte de la taille de l’IXP, un NOC peut être envisagé.

Les opérations au quotidien

Un NOC, (centre d’opérations disponible 24h/24 et 7j/7 pour fournir une assistance technique aux participants et maintenir les infrastructures de l’IXP

Un monitoring en temps réel de la qualité de service et anticiper les pannes éventuelles

Un service de statistique pour publier la liste des participants à l’IXP, le trafic échangé entre ceux-ci

Un site web qui permet de fournir les informations, statistiques, sur les services offerts par l’IXP

Ci-dessous un exemple du pricing pratiqué par le point d’échange Internet Equinix de Paris

Service Installation Monthly recurring Installation delay
Port 1GE – 1Gbps 500 EUR 0 EUR 5 working days
Port 1GE – 1Gbps additional port 500 EUR 250 EUR 5 working days
Port 10GE – 10Gbps 1500 EUR 750 EUR 5 working days
Port 100GE – 100Gbps 13000 EUR 3500 EUR 5 working days
VLAN 0 EUR 0 EUR 1 working day

Aperçu des IXP à travers le monde

Plusieurs ressources sur Internet fournissent un répertoire des IXP à travers le monde.

PCH, Packet Clearing House (www.pch.net), qui au cours des vingt dernières années, a fourni une assistance pour la mise en place de plusieurs IXP existants gère un répertoire global des IXP, et publie des statistiques sur leur utilisation et leur la croissance.

La répartition des IXP à travers le monde reflète le niveau de développement d’Internet. Les Etats-Unis avec 86 IXP arrivent en tête des 125 pays disposant de ce type d’infrastructure. Le Brésil avec 27 IXP, la Russie et l’Allemagne avec 21 IXP chacun, la France avec 18 IXP forment le top 5.

80 pays dans le monde ne disposent pas encore d’IXP.

Pour la liste complète des pays, il faut aller à l’adresse : https://www.pch.net/ixp/summary

En termes de nombre d’opérateurs participants à un IXP, le tableau ci-dessous présente le top 10

Country City IXP Name Participants Traffic Established
Brazil São Paulo Ponto de Troca de Tráfego Metro São Paulo

817

1.89T

04-oct-04

Netherlands Amsterdam Amsterdam Internet Exchange

783

7.69T 29 Dec 1997
Germany Frankfurt Deutscher Commercial Internet Exchange

702

4.79T May 1995
United Kingdom London London Internet Exchange

698

2.6T

08-nov-94

Indonesia Jakarta OpenIXP Internet exchange Point

673

241G

2005

Netherlands Amsterdam Neutral Internet Exchange

547

1.2T

01-mars-02

United States Los Angeles Any2 California

449

68G Dec 2005
Russia Moscow MSK-IX Moscow

397

3.85T

25-nov-95

France Paris Equinix Paris

315

NC

2008

France Paris France-IX

299

1.07T

nov-10

Pour ce qui est du Top 10 en termes de trafic nous avons le tableau ci-dessous

Country City IXP Name Participants Traffic Established
Netherlands Amsterdam Amsterdam Internet Exchange

783

7.69T 29 Dec 1997
Germany Frankfurt Deutscher Commercial Internet Exchange

702

4.79T May 1995
Russia Moscow MSK-IX Moscow

397

3.85T

25-nov-95

Russia Ekaterinburg MSK-IX Ekaterinburg

40

3.8T 1 Dec 2012
Russia Novosibirsk MSK-IX Novosibirsk

48

3.8T

2004

United Kingdom London London Internet Exchange

698

2.6T

08-nov-94

Brazil São Paulo Ponto de Troca de Tráfego Metro São Paulo

817

1.89T

04-oct-04

Netherlands Amsterdam Neutral Internet Exchange

547

1.2T

01-mars-02

France Paris France-IX

299

1.07T

nov-10

Russia Moscow DataIX Moscow

39

990G

20-oct-10

Telegeography (www.telegeography.com) la firme de consulting spécialisée dans les études de marché dans le domaine des télécommunications maintient également un répertoire des IXP et propose une belle carte mondiale des IXP. Ci-dessous une image de la carte dans le monde.


Source : http://www.internetexchangemap.com/

D’autres ressources sont également disponibles sur Internet :

Budget moyen d’un IXP

Les budgets nécessaires à la mise en place d’un IXP sont relativement peu importants. Les équipements sont relativement simples, la mise en œuvre facile. Le plus compliqué l’identification du site qui va abriter l’IXP et la mise en place de toutes les commodités évoquées avant. Il arrive très souvent que ce site soit offert par un sponsor.

Selon l’ISOC, l’Internet Society un budget moyen de 40 00 USD est requis pour la mise en place d’un IXP. L’ISOC indique que la mise en place du Cairo Internet Exchange en 2002 a nécessité un budget de l’ordre de 10 000 USD.

Pour ce qui est du budget de fonctionnement, cela reste également raisonnable, le nombre d’employés nécessaires étant réduit et les équipements simples à maintenir.

Source


Comment est bloqué ou filtré Internet dans certains pays et quels moyens de contournement ?

Si Internet est souvent présenté comme virtuel, l’infrastructure par laquelle transitent les données est bien réelle. Internet est composé de dizaines de millions de serveurs, des milliers de Petabytes de données, de millions de réseaux interconnectés, de milliers de fibres optiques, tirées sur terre et dans les mers, et connectées les unes aux autres. Il est même qualifié par certains de 5ème pouvoir après ceux de l’exécutif, du législatif, du judiciaire et des médias. Ce pouvoir présente de très nombreux avantages à la portée de quiconque ayant accès à Internet. Son pouvoir et son influence sont illimités et dépassent toute frontière. Il a la capacité d’amplifier et d’accélérer la création et la propagation des crises. Il peut servir à influencer voir manipuler l’opinion public.

Le contrôle d’Internet est donc stratégique pour les Pouvoirs Publics. Ceux-ci lors d’élections ou lors d’évènements qui peuvent porter atteinte à la sécurité ou à l’ordre public des Etats, n’hésitent pas souvent à imposer un blackout total ou partiel d’Internet.

Quand il est partiel, ce blackout vise essentiellement certains médias sociaux tels que WhatsApp, Viber, Facebok, Twitter, Skype, etc..

L’initiative « Access Now », dont le but est de défendre l’accès sécurisé à tous à Internet, a relevé en 2015, 15 interruptions totales ou partielles d’internet à l’initiative des pouvoirs publics dans le monde. Il s’agit de : RD Congo, Niger, Togo, Yémen, Algérie, Irak, Turquie, RD Corée, Brésil, Congo-Brazzaville, Inde, Equateur, Malaisie, Burundi, Nauru.

Depuis le début de l’année 2016, ils ont enregistré ce type de pratique dans les pays suivants : Malaisie, Tchad, Ouganda, Inde, Syrie, Ethiopie, Pakistan, Brésil, Irak, RD Corée, Vietnam, Algérie, Inde, Bahreïn, Turquie, Mali, Zambie, et Gabon

Les raisons avancées sont souvent les mêmes, pour les élections par exemple, c’est pour éviter la publication illégale des résultats. Ils veulent avoir la maitrise des résultats et la proclamation de ceux-ci et éviter des fuites ou des proclamations anticipées.

Les raisons peuvent être aussi sociales, dans le cas de l’Ethiopie, l’accès aux réseaux sociaux a été interrompu pour éviter des fuites et la propagation des épreuves d’examens à travers les réseaux sociaux. En Inde, Internet a été coupé en 2015 dans certains districts du Cachemire à l’issue des violences entre les populations et les forces de l’ordre. Il s’agissait d’éviter la propagation de rumeurs ou d’informations qui aurait pu accroître les tensions entre les populations et les forces de l’ordre.

Pour se protéger contre l’invasion de l’ISIS, l’Irak a du bloquer Internet dans certaines parties de son territoire pour ne pas fournir à ISIS un canal de communications.

Nous pouvons aussi avoir des raisons économiques, certains opérateurs de télécommunication qui n’ont pas vu venir l’explosion des médias sociaux et des logiciels VoIP, peuvent être tentés de faire bloquer ces applications afin de maintenir leur revenue financier.

A côté de ces blocages d’Internet, il existe également une forme de filtrage institutionnelle d’Internet dans certains pays. L’exemple de l’Arabie-Saoudite où tous les contenus pornographiques sont bloqués et vous avez une notification explicite quand vous essayez d’accéder à ce type de site. Dans d’autres pays ce n’est pas toujours le cas, le filtrage agit de manière silencieuse et vous avez un message du genre « Page non trouvée ».

Le filtrage du contenu Internet n’est pas l’apanage de certains pays, il existe également dans les pays dits développés qui font voter des lois pour bloquer par exemple des sites vantant l’apologie du terrorisme.

Pour plus d’informations, il existe une initiative OpenNet (http://opennet.net ) qui teste les accès Internet à partir des divers pays pour vérifier l’état de blocage d’Internet rend public les filtrages existants

Les environnements qui vont faciliter le blackout

Les environnements qui vont faciliter le blackout d’Internet sur décision des Pouvoirs Publics sont les suivants :

  • Un nombreux réduit de fournisseurs d’accès à INTERNET
  • Le contrôle par les pouvoirs publics des principales fibres optiques qui relient les principales villes et qui connectent le pays au réseau mondial.
  • Les Pouvoirs Publics actionnaire des fournisseurs d’accès à Internet
  • Très peu d’interconnexions avec les pays voisins

Comment les fournisseurs bloquent Internet?

Très souvent ça commence par une note des pouvoirs publics adressés à l’ensemble des fournisseurs d’accès Internet leur ordonnant la fermeture partielle ou totale d’Internet ou d’un service Internet.

Pour ce qui est du blackout partiel

Les fournisseurs d’accès à Internet font du monitoring du trafic Internet pour des raisons de facturation, de suivi de la qualité de service. Ceux-ci ont accès à l’ensemble des adresses IP de destination et même au contenu du trafic quand ceux-ci ne sont pas chiffrés.

Pour la plupart ils disposent des outils de sécurité de type UTM (Unified threat management) pour protéger leur réseau. Ces outils disposent de fonctionnalités de filtrage d’URL avec des Blacklists des noms de domaines ou IP interdits. Ces solutions ont la capacité à partir de l’entête de la requête de savoir quel type de contenu est demandé par l’utilisateur. Est-ce du contenu pour adulte, est-ce du réseau social, etc… Ils peuvent aussi bloquer les paquets sur la base de mots clés prédéfinis ou des ports IP définis utilisés par les services Internet qu’on souhaite bloquer

Pour ce qui est du blackout total

L’interconnexion des fournisseurs d’accès à Internet aux fournisseurs s’appuie sur des routeurs BGP.

Pour définir simplement un routeur, on peut dire que c’est un matériel ou un logiciel qui relie des réseaux et achemine les informations d’un émetteur X vers un destinataire Y selon une route préalablement définie, ou dynamiquement définie.

Le BGP quant à lui, (Border Gateway Protocol) est le protocole standard de l’Internet pour les interconnexions entre opérateurs.

Pour les opérateurs de télécommunication ou les fournisseurs d’accès à Internet,  interrompre Internet consiste à soit :

  • Cesser d’annoncer les adresses IP publics gérés par le fournisseur
  • Effacer les routes BGP des routeurs qui communiquent avec l’extérieur
  • Désactiver les interfaces de communication des routeurs qui se connectent au réseau mondial
  • Mettre en arrêt les serveurs DNS racines du pays.

Cas spécifique des pays d’Afrique

Pour la majorité des pays Africains, le développement des contenus locaux est encore embryonnaire, les infrastructures numériques sont très peu développées (Datacenters, de serveurs d’hébergement, des caches locaux, des DNS etc…. ). Du coup, pour accéder au contenu de l’internet se trouvant en Europe, Asie, Amérique ils doivent empreinte la seule ou dans le meilleur des cas les deux seules fibres sous-marine reliant le pays à l’Internet mondial. Dans ce cas, créer un blackout dans le pays ne demande aucune ingéniosité. Les pouvoirs publics coupent simplement l’alimentation dans la salle technique hébergeant l’arrivée de la fibre Internationale ou au mieux encore la débranche uniquement.

Quelles solutions de contournement en cas de Blackout d’Internet?

Il existe plusieurs solutions pour contourner le blocage d’Internet

Pour contourner le filtrage des URL ou le blocage de l’accès à certains sites web

Des tunnels VPN et des proxy

Aujourd’hui pas besoin d’un équipement ou d’un logiciel spécifique pour monter un VPN, il existe de nombreux services VPN qui sous forme d’extension s’installent directement sur le navigateur Internet et qui permettent de surfer anonymement sur Internet, de chiffrer le contenu du trafic Internet échangé, d’accéder sur des sites Internet interdits, de choisir sa localisation. Le réseau du fournisseur de service joue le rôle de proxy et se charge de relayer les requêtes.

Il y en a aujourd’hui des dizaines qui naissent chaque semaine, ce qui rend la taches des administrateurs sécurité encore plus compliquer pour les bloquer : Dot VPN, BrowSec, ZenMate, Hola Engine, Gom Web, TunnelBear. Certains sont gratuits, d’autres proposent des options payantes pour par exemple personnaliser sa localisation (geo-switching). Intéressant par exemple si on souhaite accéder à du contenu qui n’est accessible qu’à partir d’un pays, exemple très souvent des programmes TV qui pour des raisons de droits de diffusion sont restreints sur des zones géographiques.

Des dangers quand même à souligner dans l’utilisation de ce type de solution. Tout votre trafic étant déchiffré chez le fournisseur de solution, celui-ci a tout votre trafic en clair et peut donc s’il le souhaite revendre votre identité et vos données. C’est également une porte ouverte pour des attaques, pour des installations d’autres programmes malicieux. Il faut faire très attention lors du choix de son fournisseur de service et éviter les solutions gratuites, car comme vous le savez, il n’y a rien de gratuit ou encore « There Is No Free Lunch ». On dirait aussi, lorsque c’est gratuit pour vous, alors c’est vous la marchandise.

On peut également demander à un copain résident dans un autre pays de monter un serveur VPN sur lequel on va se connecter et ensuite de ce VPN accéder aux sites web souhaités

Les outils de Translation

On peut utiliser les outils de translation comme Google Translation. C’est le service de translation qui va servir de proxy pour vous et accéder au site web. Les sites web de translation ne sont pas très souvent bloqués.

Exemple de mon blog ci-dessous

Des liaisons satellitaires

Si on est prévoyant, on peut mettre en place une infrastructure de secours qui se connectera à Internet via satellite. Cela requiert un équipement spécial et coûteux. Il existe de nombreux fournisseurs d’accès à Internet via Satellite. Plusieurs entreprises offrent ce type de services, telles que HughesNet, Exede Internet, DishNet, GlobalTT, WafaNet.

Au Congo-Brazzaville un mois avant le referendum de Novembre 2015 et un mois avant les élections présidentiel de Mars 2016 beaucoup de personnes se sont muni des téléphones TURAYA (Téléphone Satellitaire). Avec ces téléphones ils pouvaient continuer à communiquer et donc pouvoir accéder a Internet lorsque le pays a connu ses blackouts.

 

 

 

Revenir au bon vieux modem

Via une ligne téléphonique, on peut encore appeler un numéro de téléphone et accéder à Internet via RTC.

Dans le cas de l’Egypte des activistes du FDN ont fait la collecte de vieux modems et mis en place des serveurs d’accès distants. Un message disponible sur leur blog :

« This way, anyone in Egypt who has access to a analog phone line and can call France is able to connect to the network using the following number: +33 1 72 89 01 50 (login: toto, password: toto) »

Attention à la facture téléphonique.

Utiliser le réseau privé de son entreprise

Si on fait parti des privilégiés qui travaillent pour des multinationales qui ont leur propre réseau privé, on peut s’appuyer sur celui-ci pour continuer à avoir accès à Internet

Une initiative citoyenne pour créer un réseau Wifi unique et ouvert

Chaque utilisateur va activer ses équipements réseaux et en faire des points d’accès Wifi et faire propager un réseau wifi unique et ouvert à tous. Facile à dire, l’Organisation ? Les DNS ?

Des services vocaux accessibles par téléphone

Exemple de l’Egypte pour lequel Google a mis en place un service baptisé : « Speak To Tweet » qui permet de “tweeter” par téléphone, remplaçant ainsi le passage par un ordinateur relié à internet. A l’aide d’un téléphone, en composant le +1 650 419 4196 ou le +39 06 62 20 72 94 ou le +97 316 199 855, on accède à une messagerie vocale. Après avoir laissé son message, celui ci est retranscrit sur Tweeter, précédé du #egypt et facilement identifiable.

Mais cette méthode est aussi facilement blocable par les pouvoirs publics. Il suffit que ces derniers demandent aux opérateurs de couper tout signal téléphonique.

En conclusion

La clé pour se prémunir d’un blackout d’Internet est évidement de se préparer et d’avoir des alternatives prêtes.

Il est également essentiel d’encourager une décentralisation des services Internet avec de nombreux acteurs privés et la non mainmise des pouvoirs publics. Plus il y aura de fournisseurs d’accès à Internet et plus il y aura des liens de connexion soit vers la fibre marine ou vers les pays voisins et moins l’impact sera grand.

Sources

http://www.investintech.com/articles/theworldsocialnetworkingbanrace/

https://www.hotspotshield.com/fr/

https://www.tunnelbear.com/

http://research.dyn.com/2012/11/could-it-happen-in-your-countr/

https://opennet.net/

https://www.accessnow.org/keepiton/

http://blog.fdn.fr/?post/2011/01/28/Censure-de-l-internet-en-%C3%89gypte-:-une-humble-action-de-FDN

https://twitter.com/speak2tweet

Les enjeux d’un plan national « Très Haut Débit »

L’accès à internet est de nos jours indispensable autant pour les entreprises et les services publics que pour tous les citoyens. Mais il ne suffit plus seulement d’être connecté à Internet, les usages ont évolué et sont de plus en plus gourmands en terme de débit. Le débit joue un rôle essentiel. Tous les pays ne sont pas logés à la même enseigne, des inégalités existent, des déserts numériques sont présents.

Image : La carte mondiale de la moyenne des débits enregistrés à la fin Q1-2016 par AKAMAI (source : www.akamai.com)

Un accès à Internet est considéré à « très haut débit » dès que le débit est supérieur à 30 Mbps. Le terme de débit désigne la quantité d’informations qu’un réseau permet de transférer en un temps donné. Plus le débit est élevé, plus la vitesse de téléchargement des données (documents, vidéos, musiques, etc.) est rapide.

Pour les réseaux mobiles, les normes de type 4/5G sont considérées comme faisant partie des accès très haut débit.

Les réseaux « Très Haut débit » s’appuient essentiellement sur de la Fibre optique. Celle-ci, déployée au plus près des utilisateurs, apporte le très haut débit nécessaire aux nouveaux usages, à la multiplication des utilisations simultanées en un même lieu et à l’augmentation du nombre d’équipements connectés (objets multimédia et autres machines « intelligentes » : appareils ménagers, capteurs, télévisions connectées, etc.). On parle de FTTx (fiber to the ..) avec les différentes variantes :

  • FttH pour « Fiber to the Home », qui correspond au déploiement de la fibre optique depuis le nœud de raccordement optique (lieu d’implantation des équipements de transmission de l’opérateur) jusque dans les logements ou locaux à usage professionnel. Le FttH permet donc de bénéficier de tous les avantages techniques de la fibre sur l’intégralité du réseau jusqu’à l’abonné. Il se distingue d’autres types de déploiement qui combinent l’utilisation de la fibre optique avec des réseaux en câble ou en cuivre.
  • FttB pour « Fiber to the Building », qui correspond au déploiement de la fibre jusqu’au pied de l’immeuble. Pour les derniers mètres jusqu’à l’abonné, on utilise la paire de cuivre téléphonique, ou le réseau de télévision par câble
  • Le FttO pour « Fiber to the Office », l’équivalent du FttH pour les entreprises
  • FttN : Fiber To The Neighbourhood (Fibre jusqu’au quartier)
  • FttC : Fiber To The Curb (Fibre jusqu’au trottoir)
  • FttN : Fiber To The Node (Fibre jusqu’au répartiteur)

La mise en place du très haut débit au vu de l’impact socio-économique que celui-ci engendre devient un enjeu majeur des pays pour la compétitivité de leur économie.

L’impact socio-économique du « Très haut débit »

Plusieurs études distinctes ont été menées pour étudier l’impact socio-économique des réseaux Haut débit sur l’environnement socio-économique d’un pays.

On peut citer :

  • L’étude de la Commission Européenne « SOCIO–ECONOMIC BENEFITS OF HIGH SPEED BROADBAND », publiée en 2015
  • L’étude de l’Union Internationale des Télécommunications « impact of broadband on the economy » en 2012
  • L’étude conjointe Ericsson, Arthur D. Little et l’Université de Technologie de Chalmers en Suède : « Socioeconomic effects of broadband speed »

Les résultats de ces études ont un point en commun, la disponibilité et les débits des réseaux Haut débit deviennent une clé essentielle pour le développement socio-économique d’un pays.

Résultats de l’étude « Ericsson, Arthur D. Little et l’Université de Technologie de Chalmers »

Sur le plan macro-économique nous avons les résultats suivants :

  • Doubler le débit d’un réseau haut débit a pour conséquence l’augmentation de 0,3% du PIB d’un pays
  • Pour tous les 1 000 utilisateurs du haut débit supplémentaires, nous avons environ 80 nouveaux emplois créés
  • Les avantages d’un réseau haut débit peuvent être classés comme suit :
    • Les effets économiques qui comprennent l’innovation et la productivité des entreprises
    • Les effets sociaux, qui comprennent un meilleur accès au service et l’amélioration des soins de santé
    • Les effets sur l’environnement, avec une consommation d’énergie moindre

L’analyse micro-économique a donné les résultats suivants :

  • Dans les pays de l’OCDE, gagner 4Mbps de débit a pour conséquence l’augmentation des revenus des ménages de 2 100 USD par an
  • Dans les pays BIC (Brésil, Inde, Chine), l’introduction dans les ménages d’une connexion d’un débit de 0,5 Mbps suffit pour augmenter le revenu de ceux-ci de 800 USD par an
  • Dans les pays de l’OCDE, la mise à niveau de débit de 0,5 Mbps à 4 Mbps accroît le revenu d’un ménage d’environ 322 USD par mois
  • Dans les pays BIC, la mise à niveau de 0,5 à 4 Mbps accroît le revenu de 46 USD par mois

Le lien entre cette augmentation de revenu et l’augmentation des débits Internet se justifie par le fait que :

  • Une réseau haut débit plus rapide augmente la productivité personnelle et apporte de la flexibilité dans le travail.
  • Un débit plus élevé ouvre aussi des possibilités pour du travail à domicile
  • Un débit plus élevé permet aux gens d’être mieux informés, mieux éduqués et socialement et culturellement enrichi

La map ci-dessous réalisée par les chercheurs de cette étude résume l’impact socio-économique du très haut débit

Source : Arthur D. Little analysis

Les modèles de stratégie de mise en œuvre du Très Haut débit

Au vu de l’impact du très haut débit internet sur l’environnement socio-économique d’un pays, les investissements dans ce secteur deviennent donc stratégiques. Ceux-ci ne doivent pas être exclusivement dans les mains du secteur public ou inversement du secteur privé. Une coopération entre les pouvoirs Publics et les investisseurs privés est indispensable pour atteindre les objectifs.

ADL identifie 5 modèles de stratégie de mise en œuvre du très haut débit, chacun avec ses avantages et ses inconvénients. Sur les 5 modèles, il faut retenir que 3 marchent relativement bien s’ils sont bien appliqués. En général des investissements privés avec un support des pouvoirs publics sont un gage de succès dans la plupart des pays. Les pouvoirs publics doivent mettre en place pour protéger l’intérêt général, un cadre de régulation ou règlementaire stricte.

L’analyse des 5 modèles de stratégie proposé par ADL (Arthur D. Little )

Cette analyse est résumée dans le tableau ci-dessous.

Modèles de stratégie Vitesse de déploiement Efficience du déploiement (pour éviter des duplications) Répartition de la Couverture (pour éviter des déserts numériques) Proportion de financements publics
Investissements privés dans un environnement dérégulé

Les Pouvoirs Publics délèguent à une entité et lui apportent un support

Investissements privés avec un support limité des Pouvoirs Publics

Les pouvoirs Publics contrôlent la fibre

Investissements privés dans un environnement à forte régulation

 : Les meilleurs résultats

 : Les pires résultats

Ce tableau nous interpelle et nous pouvons apporter les commentaires suivants :

Investissements privés dans un environnement dérégulé :

Nous avons une facilité de mise en œuvre et très peu d’argent public impliqué, par contre la couverture nationale n’est pas assurée. Il y a des risques de déserts numériques. La mise en œuvre n’est pas efficiente, il y a des risques de duplication d’infrastructures, très peu de mutualisation

Les Pouvoirs Publics délèguent à une entité et lui apportent un support

On a l’assurance d’avoir une couverture fibre étendue. Comme nous avons un seul acteur, il n’y a pas de concurrence. Pas de concurrence, pas de stimulation et très peu de développement de services

Investissements privés avec un support limité des Pouvoirs Publics

L’impact socio-économique est maximisé. L’utilisation de l’argent public est plus efficiente. Il y a une compétition saine entre les différents acteurs privés qui sont obligés de coopérer et de se concurrencer en même temps. On observe une explosion de services disponibles

Les pouvoirs Publics contrôlent la fibre

On a l’assurance qu’il n’y aura pas de régions oubliées ou de désert numérique. Par contre la mise en œuvre de la fibre risque trainer à cause de la légendaire lenteur administrative. Pas de concurrence, pas de stimulation, donc très peu de services développés

Investissements privés dans un environnement à forte régulation

Pas d’argent public impliqué, par contre la mise en œuvre de la fibre est très lente à cause de lenteurs générées par la régulation

Quel modèle choisir ?

Il n’existe pas de modèle parfait, Chaque pays présente des facteurs différents qui nécessitent une solution particulière pour optimiser les investissements et atteindre les objectifs. Les facteurs peuvent être démographique, le niveau d’avancé technologique, la concurrence existante, les régulations en place et leur niveau d’intensité, le niveau d’implication des Pouvoirs Publics dans les investissements de ce type.

Les pays très souvent utilisent des modèles hybrides. Pour les zones urbaines à fort potentiel commercial, on peut avoir un modèle de type « Investissements privés avec un support limité des Pouvoirs Publics » et dans les zones rurales, on partira vers un modèle de type « Les Pouvoirs Publics délèguent à une entité », par exemple une collectivité et lui apportent un support

Les régulateurs doivent fixer, les standards à appliquer en termes de qualité de services, les zones de couvertures, les débits

Dans les cas où les pouvoirs publics apportent leur soutien, dans ce cas les Pouvoirs publics doivent clairement fixer des objectifs et effectuer un contrôle des résultats atteints.

Il est plus intéressant d’avoir la compétition au niveau des services qu’au niveau des infrastructures passives, car ceux-ci peuvent être mutualisé et nécessitent un investissement très lourd notamment en génie civil (plus de 80% des investissements).

Quelques clés pour le succès

  • La mise en place par les Pouvoirs Publics d’un plan « Très haut débit numérique » avec la vision, des objectifs définis, la durée, les moyens, les indicateurs de succès, et le modèle d’implémentation
  • La mise en place des régulations nationales concernant le Haut débit (les standards à appliquer, les règles de concurrence, etc..)
  • Des ressources financières importantes pour supporter les différentes initiatives
  • Un accès équitable et non discriminatoire aux opérateurs avec de préférence une infrastructure passive et technologiquement neutre.
  • Lorsqu’il y a aide des Pouvoirs Publics à un opérateur privé, obligation de libre accès pour les autres opérateurs sur les fibres, fourreaux ou armoires de rue
  • Des déploiements cohérents, de façon à éviter des surinvestissements sur certains territoires et des sous-investissements dans d’autres
    • Obligation donc aux opérateurs de publier chaque année des cartes de couverture du territoire à l’attention du public, des concurrents, des collectivités et des Pouvoirs Publics.
    • Un portail web unique animé par le régulateur national sous forme de Système d’Informations Géographiques avec l’ensemble des données sur les emplacements des réseaux fibres existants, les points de mutualisation, les répartiteurs, les sous répartiteurs, les locaux techniques, les fourreaux existants, les réseaux de génie civil…
  • La coopération entre les acteurs privés, les collectivités municipales, les pouvoirs publics
  • Une stimulation de la demande en « Très haut débit », en obligeant par exemple tous les ministères, les agences publiques, les universités à se connecter
  • Des facilités fiscales pours les investisseurs privés qui développeraient des services
  • La mutualisation entre opérateurs de réseaux en fibre optique. Pour l’exemple d’un immeuble d’habitations, obligation d’ouvrir son réseau aux autres opérateurs afin que ces derniers puissent proposer leurs services aux résidents de l’immeuble. Cette mutualisation a pour objectif de minimiser les travaux et nuisances dans l’immeuble, et d’assurer aux résidents le libre choix de leur offre commerciale.
  • Une mise à jour des lois et règlements concernant l’urbanisme et l’habitat, en obligeant le prééquipement en fibre des maisons et immeubles neufs

Source

http://www.gouvernement.fr/action/le-plan-france-tres-haut-debit

http://www.francethd.fr/le-tres-haut-debit/les-usages-du-tres-haut-debit.html

http://www.adlittle.com : National Fibre Strategies

http://www.ftthcouncil.eu/resources/key-publications

http://www.francethd.fr/

www.bmwi.de : The Federal Government’s Broadband Strategy

https://www.itu.int/ : impact of broadband on the economy

https://www.ericsson.com : SOCIOECONOMIC EFFECTS OF BROADBAND SPEED

https://www.fcc.gov/general/national-broadband-plan