LES CLES DU DECOLLAGE NUMERIQUE DU KENYA : PARTIE II

La politique Gouvernementale en matière de ICT

Le cadre Législatif

Les technologies de l’information et de la communication relèvent de plusieurs textes législatifs, dont le « Kenya Communications Act (KCA) » de 1998 qui a été amendé en 2013 sous la nouvelle formulation de « Kenya Information and Communications Act » . Nous avons également le « Science and Technology Act » de 1977, le » Broadcasting Corporation (KBC) Act » de 1988.

Tous les aspects réglementaires et de régulation sont sous l’égide de l’autorité de communication du Kenya (CAK).

Le marché des télécommunications a été libéralisé en 1999 avec la scission de l’ancien entreprise publique « Kenya Post and Telecommunications Corporation » en plusieurs entités dont « « Telekom kenya , la Poste, l’autorité de communication,.

Cette libéralisation a été un catalyseur du développement des Télécoms au Kenya

Kenya Vision 2030

Le président actuel du Kenya, Uhuru Kenyatta a qualifiée le Kenya de « Startup nation », invitant ainsi l’ensemble des institutions publiques, les partenaires privées, le monde universitaire à favoriser cet élan.

L’ICT est vue comme un élément essentiel pour améliorer la vie des citoyens kenyans.

Il s’agit par exemple pour toutes les institutions publiques de donner la priorité aux solutions ICT développées en locale au lieu de dépenser des millions de dollars à importer des solutions équivalentes.

L’entreprenariat est vivement encouragé, des politiques publiques sont mises en place pour le favoriser. Les pouvoirs publics et les partenaires privés sont invités à supporter cette politique.

L’Etat favorise les créations d’incubateurs et accélérateurs de startups. Elle finance certains de ces incubateurs Elle a mis en place des règles de marché public en vue de favoriser les entrepreneurs locaux.

Kenya Vision 2030 est un plan de développement adopté par le Kenya, le 10 juin 2008. Il couvre la période 2008 à 2030 à travers 5 plans quinquennaux.

L’innovation, la technologie et la science font parties des 10 secteurs qui sont visés par ce plan de développement.

Dans le cadre du programme Presidential Digital Talent Program (PDTP), le gouvernement est en train de recruter 400 talents pour renforcer la capacité en matière de ICT de l’Etat Kenyan sous la responsabilité du ministère Kenyan pour les technologies et de la Communication

Le Ministère Kenya pour les technologies de l’Information et de la Communication

Le Ministère de l’information, des communications et de la technologie (TIC) est en charge de la formulation, l’administration, la gestion et le développement de l’information, la politique de radiodiffusion et de la communication.

Il a en charge la politique de communication gouvernementale, les services de radiodiffusions, la télévision, la poste, les technologies de l’informatique et l’innovation.

Le ministère Kenyan de l’ICT a un budget de 101 millions d’euros pour l’année budgétaire en cours.

Un plan directeur pour le développement de l’ICT a été établi en 2014 pour la période allant de 2014 à 2018. Ce plan est aligné sur le plan de développement Kenya Vision 2030.

Les objectifs pour ce plan sont les suivants :

  • 8% de contribution des secteurs de l’ICT au PIB
  • 180 000 créations d’emplois directs
  • La reconnaissance du Kenya comme un hub régional ICT
  • Le renforcement des services e-gouv, avec 50% de Kenyans adultes accédant aux services et donc un meilleur rang dans le classement des pays utilisant des services e-gouv
  • L’implémentation d’au moins 55 compagnies ICT dont deux ayant au moins une base clientèle de 2 millions

Les acteurs de la mise en œuvre de cette politique

L’Autorité de Communication du Kenya : CAK

C’est l’Autorité de régulation du secteur des communications au Kenya. Il a été établi en 1999 à la suite du Kenya Communications Act (KCA) de 1998.

Il a la responsabilité de la radio et télé diffusion, le multimédia, la poste, le commerce électronique, et les télécommunications

Comme tout régulateur ses attributions sont entre autres :

  • L’octroi des licences
  • La gestion des spectres de fréquence
  • La gestion de la numérotation
  • La protection des droits des consommateurs
  • La réglementation des tarifs
  • La surveillance des activités des titulaires de licence
  • La gestion de la concurrence saine entre les différents acteurs

Cette Autorité a à sa tête un conseil d’administration qui surveille l’ensemble de ses activités. Ce conseil d’administration est composé de 12 membres, des professionnels de l’ICT, des représentants des gouvernements, des investisseurs du domaine des Télécommunication

Les membres du conseil d’administration sont désignés pour une période de 3 ans ainsi que le Directeur Général de cette Autorité.

Il est intéressant de relever la charte de service établi par cette Autorité et disponible sur son site web qui permet de nous donner quelques indicateurs sur la qualité de service. Quelques exemples :

  • 135 jours pour obtenir une nouvelle licence dans les télécommunications
  • 60 jours pour obtenir une nouvelle licence dans la radio et télé diffusion
  • 18 jours pour assigner une nouvelle fréquence
  • 60 jours pour le renouvellement d’une fréquence
  • 40 jours pour résoudre un différend entre deux concurrents
  • 40 jours pour approuver de nouveaux tarifs si ceux-ci sont règlementés
  • 30 jours pour traiter une plainte d’un consommateur

L’Autorité gouvernementale des technologies de l’information et de la communication : ICTA

C’est une agence qui est sous la tutelle du Ministère Kenyan des technologies de l’information et de la communication.

C’est le résultat d’une consolidation de 03 agences gouvernementales, effectuée en Août 2013 :

  • L’Information and Communication Technology Board of Kenya (ICT Board)
  • L’e-Government Directorate
  • Le Government Information and Technology Services (GITS)

Pour le compte du gouvernement Kenyan, elle a la charge de définir, et implémenter la stratégie gouvernementale dans le domaine de l’ICT. Elle définit les normes et standards qui sont appliqués à l’ensemble des administrations, ceci afin d’éviter les incohérences entre les administrations qui avant la mise en place de cette Autorité définissaient chacune leurs standards.

Cette autorité pour le compte du gouvernement gère l’ensemble des ressources humaines en matière de ICT et également les services partagés tel que :

  • Le système de communication unifié gouvernemental (email, fax, video, ) qui aujourd’hui qui héberge 15 000 adresse emails de diverses administrations : la police, la santé, l’éducation nationale, les finances, …Le but à terme est de pouvoir héberger 50 000 fonctionnaires.
  • Le Datacenter gouvernemental qui héberge l’ensemble des services partagés et également le backbonne réseau qui relie l’ensemble des ministères et les principales agences gouvernementales à ce Datacenter.

Elle est le leader de la transformation et de l’innovation pour le compte du gouvernement. Elle finance pour le compte du gouvernement de nombreuses startups. Elle ne le fait pas directement, elle le fait à travers des initiatives privées d’incubateurs et d’accélérateurs de startups.

C’est l’interlocuteur pour tout ce qui est cybersécurité pour le compte du gouvernement.

Elle est le principal promoteur des services e-gouv. Elle supervise la mise en place des solutions ICT dans les administrations et la mise en place du backbonne nationale fibre optique : NOFBI que nous présenterons dans la suite du post.

Elle joue aussi un rôle de vulgarisation avec la formation du personnel de l’Etat aux nouvelles technologies.

C’est l’interlocuteur des bailleurs de fond comme la banque mondiale ou l’UNESCO pour les projets dans le domaine de l’ICT. L’autorité a par exemple exécuté le projet «Wezesha Laptop  », qui a consisté à distribuer près de 15 000 laptops financés par la banque mondiale aux étudiants des universités publiques et privées kenyanes.

Pour le compte du monde universitaire c’est aussi le promoteur de réseau KENET (Kenya Education Network), qui a pour but de mettre en place une passerelle pour le monde universitaire vers les ressources scientifiques, des systèmes de e-learning, des solutions de vidéoconférences

Les Universités et la formation aux ICT

Nous avons 31 universités et instituts d’enseignements supérieurs publics et 36 universités et instituts supérieurs privées, reconnus par la Commission nationale Kenyane pour les Universités. C’est l”entité qui accrédite les universités.

Chaque année il y a plus de 200 000 jeunes kenyans qui s’inscrivent à l’université, 50 000 qui en sortent diplômés, donc environ 9 600 dans les formations relatives aux ICT.

La majorité de ces Universités proposent des cursus de formation en ICT. Les plus réputées sont :

  • Jomo Kenyatta University of Agriculture and Technology (JKUAT)
  • Strathmore University
  • KCA University
  • University of Nairobi
  • Maseno University
  • Kenyatta University
  • Egerton University
  • Moi University

La présence des Géants du HiTech

Nairobi est devenu le hub pour l’Afrique de l’Est ou voir même pour l’Afrique de certaines multinationales de l’ICT : Google, Visa, Cisco, Huawei, Asus, LG Nokia, Motorola, Sony, Kaspersky Lab, Blackberry

Une association des fournisseurs de services INTERNET très active

Les fournisseurs d’accès aux services Internet et technologiques ont créé une association TESPOK pour « Technology Service Providers of Kenya »

C’est une association à but non lucratif créée dès 1999. Cette association a pour but d’être leur voix, et d’influencer les différentes politiques de développement numérique, les différentes régulations. Ils défendent les intérêts des fournisseurs de service.

Cette association a une voix qui porte et fait du lobbying tout azimut. Quelques réalisations de cette association :

  • La dérégulation des services VSAT et VoIP
  • La mise en place d’un point exchange Internet KIXP
  • La contribution active dans la définition des différentes stratégies ou politiques gouvernementales en matière d’ICT

Des accélérateurs et incubateurs de Startups

Il existe de nombreux incubateurs de startup au Kenya qui favorisent leur développement, en les aidant à survivre et à se développer. Ils fournissent un éventail de ressources tels que les espaces de bureau, le capital, le coaching, les moyens de communications.

Sans contrepartie, ils accompagnent des jeunes entreprises ou des entreprises en création à se développer en leur offrant des ressources et des services qui permettent à ceux-ci d’affiner leurs idées ou à développer un modèle commercial de ces idées.

Dans le cas de l’accélérateur Nailab, l’accompagnement dure 6 mois repartis en deux phases :

  • Une première phase de 03 mois qui consiste à développer le modèle commercial
  • Une seconde phase de 03 mois qui consiste à s’appuyer sur un relai déjà en place sur le marché et à tester le produit sur le marché.

Voyons plus en détail le fonctionnement de l’un des incubateurs iHUB.

iHub

Il a été fondé en Juin 2010 par Erik Hersman, un blogueur et commentateur qui s’est spécialisé dans l’impact et l’application de la technologie à travers l’Afrique.

C’est un Hub pour l’innovation qui propose des locaux et un espace virtuel de collaboration, qui permet de connecter sans aucune barrière, les investisseurs, les startups, les inventeurs. Tout l’écosystème permettant un développement de startup est présent sur ce hub.

Ce Hub organise de nombreux évènements pour dynamiser le secteur du numérique, des concours de meilleurs startups, des concours de développeurs, d’innovation, etc..

Il existe trois types de membres pour cette communauté :

White membership :

Pour ceux qui ne peuvent pas être physiquement présent sur le HUB et qui souhaitent faire partie du Hub virtuellement. Ils ont un accès gratuit une fois par semaine dans les locaux du Hub pour les résidents de Nairobi et toute la semaine pour les non-résidents, au-delà, il faut s’acquitter d’un montant. Ce statut de membre est gratuit

Green Membership :

Ce statut est destiné à ceux qui souhaitent utiliser le Hub comme bureau permanent pour développer leurs projets. De nombreux services (Serveurs, bureaux, communications, publicités), leurs sont proposés dans leur accompagnement.

Ce statut n’est jamais définitif, il est valable 6 mois et à la fin des 6 mois on revient au statut de white membership et il faut à nouveau candidater. L’octroi de statut est aussi en fonction du nombre de places disponible sur le hub (80 places)

Red membership

Ce statut est destiné à ceux qui ont déjà un produit viable déjà sur le marché et qui est prêt à croître. Ceux-ci sont déjà à la recherche de s’établir de manière permanente dans d’autres leurs propres locaux et de faire grandir leurs équipes. Il y a 15 places disponibles. Ceux qui sont Green ou White peuvent candidater au statut de red suivant les disponibilités. Des avantages additionnels pour ce statut comme un secrèterait, de l’hébergement de serveurs propres

D’autres incubateurs

M :lab East Africa qui est un consortium de 4 organisations l’Université de Naïrobi, iHub, WWW Foundation et eMobilis. Cet incubateur s’est spécialisé dans les solutions innovantes et à forte valeur ajoutée dans le mobile.

Le Chandaria Incubation and Innovation Center, Kenya Industrial Research and Development Institute (KIRDI), EPZ Business Incubator, Seven Seas Technologies Innovation Labs and Biz Africa.

Des centaines de startup

Il existe de centaines de startups, de dizaines naissent chaque mois. Beaucoup de startups proposent des solutions proches des réalités quotidiennes des Kenya notamment dans le domaine de l’agriculture.

Exemple de M_Farm qui est une application SMS mobile qui permet de connecter les fermiers avec les acheteurs. Ces fermiers ont accès en temps réel au cours du bétail ou des produits agricoles et peuvent donc négocier en toute sérénité le prix de leur produit

D’autres startups dans le domaine de l’agriculture, iCow, SokoText,

Ma3Route pour le transport urbain dans Nairobi, Purpink Gifts pour l’achat et l’envoi des cadeaux en ligne, Eat Out Keny pour la réservation en ligne des restaurants.

Il existe un site Internet qui répertorie les startups http://startupkenya.org/map/


 

Source :

Advertisement

LES CLES DU DECOLLAGE NUMERIQUE DU KENYA : PARTIE I

Le Kenya est considéré aujourd’hui comme l’une des vitrines de l’innovation sur le continent africain.

Ce pays truste les meilleurs classements africains sur l’attractivité par rapport aux investissements. Il a connu une croissance de 5.6% en 2015 avec 841600 créations d’emploi. L’objectif pour 2016 est la création de 1 million d’emplois.

Le secteur des Technologies de l’Information et de la Communication est un acteur essentiel de ce boom économique. Il est considéré comme stratégique par le gouvernement Kenyan.

Ces startups innovantes attirent chaque année des millions de dollars d’investisseurs privés, publics, kenyans et étrangers.

La fiscalité, les douanes, « le politique », les infrastructures, la formation, tout est mis en œuvre pour en faire le Hub africain en matière de nouvelles technologies du numériques. Un exemple que nous pouvons citer, dans le but d’encourager l’assemblage en local des équipements électroniques, les composants nécessaires à ces assemblages sont exemptés de droits de douane.

Quels sont les différents leviers qui sont utilisés ? Quelles sont les clés de ce décollage ? Qu’est-ce qui peut être transposés dans les autres pays africains ? Pour répondre à ces questions, j’ai divisé ce post en trois parties :

La cartographie numérique du Kenya

L’Autorité des Communications du Kenya produit chaque trimestre des statistiques. Nous avons pu tirer quelques indicateurs dans le dernier bulletin produit pour le compte du dernier trimestre de l’année budgétaire 2015/2016, c’est-à-dire Avril 2016 à Juin 2016.

Dans le Secteur du Mobile

Le marché mobile est partagé par 5 opérateurs :

  • Safaricom Limited : 65.2%
  • Airtel Networks Limited : 16.56%
  • Finserve Africa (Equitel) : 5.06%
  • Telkom Kenya(Orange), l’opérateur historique : 13.16%
  • Sema Mobile : 0% (275 souscription pre-paid)

Il a été enregistré 40 millions d’abonnements mobiles pour une population de 43 millions (sources Kenya National Bureau of Statistics : Facts and figures 2015). C’est également un réseau mobile bien étendu sur le territoire avec 90% de taux de pénétration.

11 milliards de SMS ont été échangés durant ce trimestre

Pour ce qui est des revenus, on enregistre 2 milliards d’euros de revenus pour les 5 opérateurs en 2015 pour 500 millions d’euros d’investissement de ces opérateurs en 2015

6 178 personnes sont employées directement par ces 5 opérateurs

Le Mobile Money

Durant ce 4ème trimestre, je ne rêve pas, près de 8 milliards d’euros de transactions Mobile money (transfert entre particuliers plus achats de services et biens).

En effet, le Kenya est le leader mondial du payement mobile. Tout a commencé en 2007 avec M-Pesa qui permet à plus de 70% de la population adulte du pays de payer, régler les factures ou une addition et tout simplement envoyer et recevoir de l’argent. Il a été lancé par Safaricom une filiale du groupe Vodafone. Le service M-Pesa est désormais présent dans plusieurs pays du monde dont l’Inde, l’Afrique du Sud, le Mozambique, et plus récemment la Roumanie qui est un point d’entrée sur le marché européen.

Téléphonie fixe

Nous avons 80 746 lignes téléphoniques fixes

Internet

Nous avons près de 37 millions d’utilisateurs Internet, soit 85% de taux de pénétration d’Internet. Nous avons la répartition suivante :

  • 26.8 millions d’abonnements Internet
  • 26.7 millions d’abonnement Mobile Data/Internet
  • 280 abonnements satellites
  • 3061 abonnements DSL Internet
  • 27 571 abonnements fibre optique

Ces chiffres nous indiquent que plus de 99% d’utilisateurs Internet sont des utilisateurs Mobiles.

Le haut débit

Je vous remets le tableau que j’avais fait dans mon post précèdent sur l’Etat des lieux d’Internet Q2 2016 sur la connectivité, sur la base du rapport produit par AKAMAI

Country Average connection speed.kbps Average-peak-connection-speed.kbps 4-mbps-Percentage 10-mbps-Percentage 15-mbps-Percentage 25-mbps-Percentage Number IPAddresses (IPv4) % Number IP/Population
Kenya

7 689

26 363

64%

21.6%

11.1%

3.6%

1 692 804

3,68%

La connexion à plusieurs fibres optiques sous-marine

Plusieurs câbles sous-marins ont un point de connexion à Mombassa. Nous avons :

  • Africa-1
  • Liquid Sea
  • Djibouti Africa Regional Express (DARE)
  • Eastern Africa Submarine System (EASSy)
  • The East African Marine System (TEAMS)
  • SEACOM/Tata TGN-Eurasia
  • Lower Indian Ocean Network 2 (LION2)

Pour plus de détails, je vous invite à suivre le lien : http://www.submarinecablemap.com/#/country/kenya

La gestion des noms de domaine KE

Nous avons 59 000 domaines enregistrés en .KE en Juillet 2016, avec une moyenne de 2 300 nouveaux noms de domaines enregistrés chaque mois.

Fruit d’une coopération entre le public et le privé, KENIC est l’entité qui gère les noms de domaine en KE. C’est une organisation à but non lucratif sous le patronage de l’autorité de régulation des communications Kenyan.

Le domaine .KE dispose de plusieurs sous-domaines :

  • .co.ke – for Companies
  • .or.ke – for Not-for-Profit-Making Organisations or NGO’s
  • .ne.ke – for Network Devices
  • .go.ke – for Government Entities(Requires Supporting Documents)
  • .ac.ke – for Institutions of Higher Educations.( Requires Supporting Documents)
  • .sc.ke – for Lower and Middle Institutes of Learning. (Requires Supporting Documents)
  • .me.ke – for Personal names
  • .mobi.ke – for Mobile content
  • .info.ke – for Information

L’enregistrement des noms de domaines se fait au travers de 45 entités privées (des registrars) dûment mandatées

A lire dans la suite :

Partie II : La politique Gouvernementale en matière de ICT et les acteurs de la mise en œuvre de cette politique

 

Partie III : Les projets structurants mis en œuvre, les faiblesses et menaces et enfin la conclusion


Source :

Quel Datacenter sous “les tropiques” ?

Les Datacenters sont les nouvelles usines de notre siècle. Nos photos, nos vidéos, nos Emails, nos documents, nos réseaux sociaux, nos services bancaires, nos services publics, et j’en passe, sont délivrés à partir des serveurs hébergés dans ces Centres de Données ou encore ces “Usines à données”

Ces Datacenters sont de plus en plus immenses, et bien évidement leur consommation d’électricité va avec. Une estimation faite récemment indique que ceux-ci consommeront trois plus d’électricité dans la prochaine décennie.

Dans un article du “Independent”, les Datacenters au cours de l’année 2015 ont consommé 416.2 TWh d’électricité. Cela représente plus que la consommation annuelle d’un pays comme le Royaume-Uni. Ceux-ci deviennent un vecteur important du réchauffement climatique.

Une étude (United States Data Center Energy Usage Report, June 2016) indique qu’aux Etats-Unis, en 2014, la consommation électrique de l’ensemble des Datacenters représentait 1.8% de la consommation globale des Etats-Unis et cette consommation correspond à la consommation annuelle de 6,4 millions de foyers américains.

Toute cette énergie a un coût non négligeable pour les différents exploitants de Datacenters. Celui-ci représente 30 à 50% des coûts d’exploitation d’un Datacenter.

Quand on est proche de l’Equateur, cette ligne imaginaire tracée autour de la Terre, à mi-chemin de ses pôles qui marque la séparation entre l’hémisphère nord et l’hémisphère sud, et qu’on a une température moyenne sur l’année à 28°C, une très forte humidité, et quand en plus on a de sérieux problèmes d’électricité et que l’offre existante n’arrive pas déjà à couvrir la demande, quelles solutions adoptées ? Quelles stratégies ? Faut-il abandonner et se dire que ces immenses Datacenters ne sont l’apanage que des pays très développés aux températures tempérées ?

Dans ce post, je fais un tour d’horizon de quelques solutions possibles, elles sont nombreuses et sont en évolution permanente ; il est donc impossible de les aborder toutes ici.

Pour commencer, je vous présente ci-dessous la carte des principaux Datacenters de Google, on observe bien une bande sur laquelle il n’y a aucune présence


Source: https://www.google.com/about/datacenters/inside/locations/index.html

Quelques Standards ou guide par rapports aux Datacenters

ASHRAE TC 9.9 – 2011 Thermal Guidelines for Data Processing Environments

ASHRAE, L’American Society of Heating, Refrigerating and Air Conditioning Engineers est une organisation internationale technique dans le domaine des génies thermiques et climatiques (chauffage, ventilation, air climatisé, production de froid). Cette organisation a été fondée en 1894 et est composée de plus de 50 000 membres qui viennent du monde entier.

Les directives thermiques de l’ASHRAE (Source : http://ecoinfo.cnrs.fr/?p=11085 ) sont particulièrement bien documentées dans le domaine des Datacenter en raison des nombreux retours d’expérience des groupes de travail des fabricants d’équipements informatiques. Jusqu’à il y a peu, chaque fabricant définissait ses propres normes environnementales.

Le comité TC 9.9 de cet organisme s’occupe de définir les normes environnementales des bâtiments qui hébergent des équipements électroniques. Il a publié en 2004 le livre « Thermal Guidelines for Data Processing Environments » qui aborde la plupart des questions concernant la conception et l’exploitation d’un Datacenter d’un point de vue thermodynamique. Les principaux fabricants d’ordinateurs (par exemple IBM, HP, Intel, Sun, Dell, etc.) sont fortement représentés au sein de ce comité. Les informations publiées par celui-ci permettent donc d’avoir une idée assez précise des exigences environnementales actuelles et futures du matériel informatique et répondent à certaines questions fondamentales relatives aux Datacenter comme les températures et les taux d’humidité recommandés ainsi que la localisation des points de mesure.

La dernière mise à jour de ces recommandations date de 2015 dans « THERMAL GUIDELINES FOR DATA PROCESSING ENVIRONMENTS, 4TH ED ». En quelques années les fabricants de matériel informatique ont fait des efforts significatifs pour certifier le fonctionnement de leurs produits dans des conditions environnementales moins contraignantes. Plusieurs constructeurs vont dès aujourd’hui au delà des limites ASHRAE.

Avant la formation de ce comité, il faut savoir qu’il était généralement accepté que les Datacenter devaient opérer dans des températures comprises entre 20 à 21°C, et on se disait que le froid était une excellente chose. Chaque constructeur de matériel avait sa propre norme et le rôle de ce comité a été de trouver un consensus parmi les principaux constructeurs de matériel.

Il y a eu plusieurs évolutions dans les recommandations sur les températures des Datacenter qui sont classes par classe en fonction de leur criticité et de leurs usages. En 2011, de nouvelles classes on été définies, les Datacenter correspondent aux classes A1, A2, A3, A4. A1 étant la classe la plus haute délivrant des services les plus critiques.

Le tableau ci-dessous montre l’évolution pour la classe A1 entre les recommandations de 2004, 2008, 2011 et 2015

 

Recommandations 2004 Recommandations 2008 Recommandations 2011 Recommandations 2015
Low End Temperature 20°C 18°C 15°C 15°C
High End Temperature 25°C 27°C 32°C 32°C
Low End Moisture 40% RH Point de condensation à 5.5°C Point de condensation à 5.5°C 12% RH et point de condensation à 8°C
High End Moisture 55% RH 60% RH et point de condensation à 15°C 60% RH et point de condensation à 15°C 80% RH et point de condensation à 17°C

 

Il ressort également que l’altitude max recommandée pour les Datacenter est de 3050 m. Donc pas de Datacenter au sommet du Mont Kilimandjaro ou du Mont Cameroun

Tous les standards et documents produits par le comité TC 9.9 sont disponibles à l’adresse : https://tc0909.ashraetcs.org/

D’autres standards à connaître

La classification Tier de Uptime Institute

Uptime Institute est une organisation qui a mis en place un standard de classification des Datacenter par rapport à leur performance, leur disponibilité. Cette classification est aujourd’hui mondialement reconnue. La classification comporte les niveaux présentés dans le tableau suivant :

Tier I : Basic capacity

No generator or optional

Basic UPS, non redundant

Single utility

99.671% Availability

Tier II : Redundant Capacity Components

Generator

N+1 UPS with redundant component

Single Utility, N+1 Mechanical System

99.741% Availability

Tier III : Concurrently Maintainable

N+1 Generator System

N+1 UPS with redundant components

Active/Passive, Utility source, N+1 Mechanical System

99.982% Availability

Tier IV : Fault Tolerance

2N Generator System

2N UPS System

Dual Active Utility, 2N Mechanical System

99.995% Availability

Un Datacenter doit être certifié par l’Uptime Institute pour revendiquer un niveau de Tier

Pour aller dans le détail avec les différents niveaux de Tier il faut aller sur le lien : https://journal.uptimeinstitute.com/explaining-uptime-institutes-tier-classification-system/

Le standard ANSI/TIA 942-A 2014

Ce standard approuvé par l’ANSI (American National Standards Institute) définit 4 niveaux de classification qui jusqu’en Mars 2014 était nommé « Tier » tout comme le modèle Tier d’Uptime Institute. Aujourd’hui on parle de « Rated » ou « Rating ». Ces niveaux indiquent le niveau de fiabilité et de disponibilité du Datacenter.

Rated I – Niveau 1 (Basique)

  • Disponibilité 99,671 %
  • Sensible aux interruptions, qu´elles soient planifiées ou pas.
  • Une seule entrée de courant électrique et de distribution de la climatisation, sans composants redondants.
  • Sans exigences de sol surélevé
  • Générateur indépendant
  • Délai de mise en service: 3 mois
  • Temps d´inactivité annuel: 28,82 heures
  • Doit être fermé complètement pour la maintenance préventive

Rated II- Niveau II (Composants redondants)

  • Disponibilité 99,741 %.
  • Moindre sensibilité aux interruptions.
  • Une seule entrée de courant électrique et de distribution de climatisation, avec un composant redondant.
  • Inclus sol surélevé, UPS et générateur.
  • Délai de mise en service: 3 à 6 mois.
  • Temps d´inactivité annuel: 22,0 heures.
  • La maintenance de l´alimentation et autres parts de l´infrastructure obligent à une fermeture de traitement.

Rated III- Niveau III (Maintenance concourante)

  • Disponibilité 99,982 %.
  • Pas d´interruption de fonctionnement pour les pauses planifiées, mais possibilité de problèmes pour les cas imprévus.
  • Accès de courant et climatisation multiples, par un seul cheminement actif. Inclus composants redondants (N+1).
  • Délai de mise en service: 15 à 20 mois.
  • Temps d´inactivité annuel: 1,6 heures.

Rated IV- Niveau IV (Tolérant aux erreurs)

  • Disponibilité 99,995 %.
  • Pauses planifiées : sans interruption de fonctionnement pour les data critiques. Possibilité de soutenir un défaut imprévu sans dommages critiques.
  • Accès de courant et climatisation multiples. Inclus composants redondants (2(N+1)). 2 UPS avec redondance (N+1) chacun.
  • Délai de mise en service: 15 à 20 mois.
  • Temps d´inactivité annuel: 0,4 heures.

Alors quelles solutions quand on réside sur la ligne équatoriale et quand en plus, on fait face à un déficit énergétique.

Le climat équatorial se caractérise par, de fortes précipitations, une température moyenne de 28 °C. C’est un climat chaud mais avec un taux d’humidité très élevé, ce qui donne l’impression de moiteur et d’un temps lourd.

Quand on sait que la facture d’énergie représente 30 à 50% des frais de fonctionnement d’un Datacenter et que pour beaucoup cette énergie est consacrée au refroidissement, on peut se demander comment ces pays peuvent faire face, tout en sachant que la plupart de ceux-ci connaissent une précarité dans l’approvisionnement en électricité.

Plusieurs solutions sont déjà appliquées ou expérimentées notamment par les grands acteurs du Cloud pour réduire leur facture énergétique. L’expression « Datacenter éco-responsable » est de plus en utilisé.

La mesure utilisée pour juger de l’efficacité énergétique d’un Datacenter est le PUE (Power Usage Effectiveness). C’est le rapport entre l’énergie totale consommée par le Datacenter (les équipements purement informatiques (serveurs), des équipements de l’environnement du Datacenter (UPS, lumières, climatisations) sur l’énergie consommée par les équipements purement informatiques.

En clair pour un PUE de 1,5 cela signifie que pour 1 KWh d’électricité utilisée par les serveurs, il faut dépenser 0,50 KWh supplémentaire dans le refroidissement du bâtiment, l’éclairage. Sachant que le PUE théorique « parfait » est de 1, la moyenne en 2011 des PUE est estimée à 1.8

Amélioration de la gestion du refroidissement des Datacenter

Le refroidissement constituant à lui tout seul près de 33% des consommations d’énergie d’un Datacenter, il faut donc commencer par améliorer la gestion du refroidissement des Datacenter. Plusieurs pistes sont envisageables, je n’en cite que quelques unes.

L’augmentation de la température du Datacenter

Comme vu précédemment avec la recommandation ASHRAE TC 9.9 dans le document publié en 2011 « Thermal Guidelines for Data Processing Environments–Expanded Data Center Classes and Usage Guidance », on peut monter jusqu’à 32°C, ce qui est loin d’être négligeable, car chaque degré de refroidissement économisé peut un impact financier important.

Cependant le livre blanc 221 de Schneider électrique par Wendy Torell, Kevin Brown et Victor Avelar, à l’issue de plusieurs tests, indique des impacts imprévus de l’augmentation des températures dans un Datacenter. Ils indiquent que les économies générées par l’augmentation de la température peuvent être neutralisées par une augmentation de la consommation énergétique des équipements informatiques et des systèmes de traitement d’air.

Pour être précis, par rapport aux équipements informatiques, on constate notamment une consommation d’énergie plus grande des serveurs dû à l’augmentation de la température des CPU et donc un fonctionnement accru des ventilateurs pour réduire la température.

L’utilisation des allées chaudes et froides et leur isolation.

Le confinement des allées froides qui consiste à couvrir les extrémités des allées de racks, la partie supérieure des allées ou bien des deux afin d’isoler l’air y circulant

Le free cooling

C’est une méthode innovante et économique qui utilise l’air extérieur pour refroidir les serveurs. En fonction de la température extérieure, il s’agit ici tout simplement d’ouvrir les fenêtres pour refroidir les Datacenter.

Ce qui explique la course pour l’implémentation des Datacenter en Sibérie ou au Nord de l’Europe dans des régions ou la température est tempérée toute l’année pour pouvoir utiliser la technologie du free cooling. Malheureusement c’est une technologie qui semble inutilisable sur la ligne équatoriale.

Fonctionnement du free cooling (Source : https://www.sigma.fr/avis-experts/free-cooling-datacenter-green )

Des Datacenters sous la mer

Microsoft a démarré depuis Novembre 2014 un projet de Datacenter sous la mer. Celui-ci présente plusieurs avantages, notamment dans le refroidissement des serveurs en utilisant l’eau de mer. Un prototype a été construit et testé. Celui-ci est constitué par un conteneur de 17 tonnes de 3 mètres sur deux qui a émergé à 9 mètres de profondeur au large de San Luis Obispo en Californie. L’idée pour la suite du projet est de construire un containeur 5 fois plus grand qui serait remonté tous les 5 ans pour changer les équipements.

Un Datacenter sous la mer s’explique par le fait que la température des océans bien que pouvant atteindre 30°C à la surface, au niveau de l’équateur, elle décroît fortement avec la profondeur. L’eau profonde est froide et relativement homogène : à titre d’exemple, 47 % de l’eau de l’Atlantique a une température comprise entre 2 et 4 °C.

Les Datacenter sous-marins sont donc une option très intéressante au niveau de l’équateur à condition qu’on puisse les immerger dans des profondeurs plus importantes.

Les Datacenters en altitude

La région équatoriale dispose de plusieurs sommets de plus de 3000 m. En tenant compte du fait que la recommandation faite par ASHRAE est de 3050 m d’altitude maximum, on pourrait imaginer un Datacenter sur l’un des flancs du Kilimandjaro.

Au pied du Kilimandjaro, la température annuelle moyenne est de 23,4 °C alors qu’elle est de 5 °C à 4 000 mètres d’altitude et de −7,1 °C au sommet. En conséquence, son gradient thermique adiabatique est d’environ 0,6 °C tous les cent mètres. Le gradient thermique adiabatique est, dans l’atmosphère terrestre, la variation de température de l’air avec l’altitude. A 3000 m d’altitude, la température moyenne est de 11°C , ce qui donne des possibilités d’utiliser du free cooling donc des possibilités de réduction d’énergie nécessaire au refroidissement

Bien évidement construire un Datacenter en altitude nécessite que des voies de communication soient disponibles pour acheminer les équipements. Et également les infrastructures de télécommunication comme les réseaux fibre optiques et le réseau électrique pour amener l’énergie

L’utilisation des énergies propres renouvelables

L’énergie marine

Les océans sont un vaste réservoir d’énergie diverses qui couplés aux Datacenter permettent de réduire la facture énergétique et d’utiliser des énergies propres et renouvelables :

  • La marée avec les procédés du type «la Rance» et du type «hydroliennes»,
  • Le vent avec les éoliennes «en mer»,
  • La houle avec les « houlomotrices »,
  • La circulation générale des masses d’eaux avec le procédé « ETM – Energie Thermique des Mers ».

L’énergie éolienne onshore à l’opposée de l’énergie éolienne offshore « en mer »

Il s’agit des éoliens implantés à terre.

Une grande partie de l’Afrique est à cheval sur les zones équatoriales et tropicales du globe, et seules les régions du nord et du sud bénéficient du régime des vents d’ouest des latitudes tempérées. Aussi, les vitesses de vent sont généralement faibles dans beaucoup de pays de l’Afrique subsaharienne, particulièrement dans les pays enclavés. L’Afrique du Sud, l’Afrique du Nord et le littoral de la Mer Rouge (et de façon inattendue, une partie du Tchad et du Nord du Kenya) disposent de certains des meilleurs potentiels éoliens de la région.

(Source: Les énergies renouvelables en Afrique http://base.d-p-h.info/fr/fiches/dph/fiche-dph-7422.html)

L’énergie hydroélectrique

C’est l’énergie produite par les barrages hydroélectriques. Nul besoin de rappeler ici l’important potentiel de ligne équatorial et plus particulièrement l’Afrique.

Dans un article de Jeune Afrique “Le grand gâchis de l’hydroélectricité en Afrique” (source : http://www.jeuneafrique.com/mag/243578/economie/le-grand-gachis-de-lhydroelectricite-en-afrique/), il est indiqué que les fleuves du continent Africain représentent un potentiel considérable et sous-exploité: une énergie propre et parmi les moins chères au monde. Seulement 5 % du potentiel hydroélectrique de l’Afrique est utilisé. Selon l’Agence internationale de l’énergie (AIE), l’eau pourrait lui apporter 300 GW d’électricité. Soit l’équivalent de ce que peuvent produire 300 réacteurs nucléaires. À elle seule, la RD Congo a répertorié 200 sites, représentant 100 GW.

L’énergie solaire

Oui, il est possible de faire fonctionner entièrement un Datacenter avec de l’énergie solaire. Annoncé en 2013, puis en 2015, Apple va investir 2 milliards de dollars dans la construction d’un Datacenter en Arizona et celui-ci fonctionnera à 100% à l’énergie solaire à partir d’une centrale solaire de 18 MW constituée par une immense ferme de panneaux solaires, sur une surface de près de 67 hectares.

Pour ce qui est de l’Afrique le potentiel est immense mais très peu utilisé.

Au niveau des opérations IT

Des chemins de câbles suspendus

Quand le système de distribution d’air utilise le plancher pour la distribution de l’air froid, il faut opter pour des chemins de câbles suspendus, car le fait d’avoir des planchers remplis de câbles rend difficile la distribution de l’air froid vers les racks.

Des équipements IT basse consommation et capables de supporter un plus haut niveau d’humidité

Un exemple ici est la technologie du stockage qui est entrain d’évoluer vers des disques SSD qui chauffent moins que les disques HD. Ce qui peut avoir un impact sur le refroidissement. Pour ce qui est de la consommation le débat n’est pas tranché, par rapport au fait que les SSD consomment moins, apparemment dans certaines conditions c’est le contraire qui arrive.

Il en est également de l’utilisation de serveurs équipés de processeurs basse consommation énergie ou de faible quantité de chaleur dissipée

La consolidation des serveurs et la mutualisation des Datacenter

La consolidation des serveurs avec la virtualisation est entrée dans nos mœurs. C’est devenue une banalité. La technologie est en train d’évoluer vers de l’hyperconvergence. Ce sont des solutions combinant virtualisation, calcul, stockage et haute-disponibilité dans un jeu de serveurs redondants. Plusieurs acteurs sont présents sur ce marché : Nutanix, ScaleComputing, Simplivity, etc..

La mutualisation est un axe également qui peut permettre de développer des Datacenters qui sont capables de fournir du service à l’échelle d’un pays, d’une région, etc.

D’autres mesures opérationnelles

  • La construction des infrastructures adaptées pour les besoins présents mais extensible en cas de montée en charge de la demande. Ceci afin d’éviter d’avoir des Datacenter surdimensionnés qui consomment de l’énergie à perte.
  • L’arrêt de tous les systèmes qui ne sont pas ou très peu utilisés. Le fait d’arrêter quelques serveurs sur l’année, représente une économie importante.

  • L’utilisation des panneaux d’obturation et des brosses passe-câbles dans les racks informatiques pour éviter que l’air chaud s’échappe de l’allée chaude
  • Le regroupement des équipements produisant le même niveau de chaleur ou nécessitant un certain niveau de température ou d’humidité, pour permettre de gérer de manière plus ciblé le système de refroidissement

Conclusion

Ce post m’a permis de faire un tour d’horizon des solutions possibles qui pourraient être utilisées non pas seulement en zone tropicale, mais par tous, car le réchauffement climatique est l’affaire de tous et des économies d’énergie sont toujours une bonne chose pour tout le monde. Ces solutions évoquées dans ce post ne sont pqs exhaustives.

Réduire la consommation d’énergie des Datacenters de manière efficiente et va donc permettre à ces pays de la ligne équatoriale d’être capable de fournir, non plus seulement des usines géantes de textile mais également des usines géantes de données qui pourront rivaliser avec celles qui sont construites dans les régions tempérées.

Source :

  • Comment réaliser des economies d’énergie dans les datacenters grâce au câblage suspendu, Livre Blanc 159, Par Victor Avelar, APC by Schneider Electric
  • L’impact imprévu de l’augmentation des temperatures du datacenter, Livre Blanc 221, Par Wendy Torell, Kevin Bron, Victor Avelar, APC by Schneider Electric


Les Points d’échange Internet (IXP) : composants clés du développement d’Internet


Dans les stratégies de développement d’INTERNET, il est un composant essentiel qui n’est pas très souvent médiatisé : les points d’échange INTERNET (IXP).

Ceux-ci jouent un rôle aussi important que les réseaux fibres optiques, dans l’amélioration de la connectivité Internet dans les pays.

Il s’agit d’une infrastructure où l’ensemble des opérateurs de l’Internet peuvent s’interconnecter, et échanger du trafic, on parle de service de peering. Le peering consiste à échanger du trafic qui a son origine sur le réseau de l’un des opérateurs (ou de ses clients) et aboutit sur le réseau de l’autre (ou de l’un de ses clients) et ne fait généralement pas l’objet d’une facturation de l’un à l’autre.

Un IXP évite aux opérateurs d’avoir à établir des liens directs entre eux, un seul raccordement au point d’échange permettant à chacun d’échanger du trafic avec tous les autres opérateurs présents.

Les opérateurs raccordés concluent de gré à gré et de pair à pair, un accord d’échange (appelé «peering agreement») par lequel ils s’accordent pour s’envoyer et recevoir mutuellement du trafic.

Les opérateurs ne sont pas limités aux seuls fournisseurs de service INTERNET (ISP), des institutions économiques, académiques, gouvernementales peuvent également en faire partie.

Quels sont les bénéfices d’un point d’échanges Internet (IXP)?

Plusieurs bénéfices ont été identifiés :

Optimisation du trafic mondial

En s’échangeant directement le trafic local, on réduit donc ainsi le nombre de bonds à l’intérieur des réseaux pour l’échange de trafic Internet, on accroit accroît le nombre de voies d’acheminement possibles, on optimise la connectivité Internet internationale, et on accroît le taux de pénétration de l’Internet et son taux d’utilisation.

Optimisation de la latence

L’interconnexion directe, souvent localisée dans la même ville que les réseaux concernés, évite que les données n’aient à changer de ville, voire de continent, pour passer d’un réseau à un autre, ceci permet de réduire le temps de latence.

Optimisation de la bande passante

Compte tenu de la demande toujours plus grande de trafic Internet utilisant des services gourmands en largeur de bande, exemple des vidéos, une connexion à un IXP local peut permettre de transférer ce type de données de façon illimitée et gratuite, améliorant ainsi considérablement la bande passante entre clients de deux fournisseurs Internet voisins.

Optimisation du coût

Le trafic passant par un point d’échange n’est pas facturé alors que les flux vers le fournisseur de trafic montant du fournisseur d’accès à Internet, le sont. Les trafics allant outre-mer signifient donc le paiement des charges de transit à votre ISP

L’argent reste dans l’économie locale et peut être Utilisé pour fournir de meilleures infrastructures locales et des services aux clients

Les clients payent donc moins cher leur accès Internet, ce qui va générer un volume plus grand de clients et de transactions. Plus les clients vont souscrire et plus le fournisseur d’accès augmentera son chiffre d’affaires

Les services fournis par un IXP

En général les services de peering fournis par les IXP sont les suivants :

Peering local Public

Il s’effectue sur un lien de niveau 2 (shared fabric). Plusieurs participants s’interconnectent à travers un seul équipement physique, ou un ensemble de switches (commutateurs) considérés comme locaux.

Peering local Privé

C’est une interconnexion directe entre 2 réseaux à travers une liaison niveau 1 ou 2 qui offre une capacité dédiée non partagée par d’autres participants.

Peering local via RS

L’IXP met en place un Route-Server (RS) local permettant de simplifier les interconnexions entre les participants. En configurant une seule session sur le Route-Server local, il devient possible d’activer des sessions de peering locales avec plusieurs autres participants. Le peering local via RS simplifie donc la gestion du peering.

Peering distant via RS

Les plus grands IXP repartis sur plusieurs pays ou continents permettent aux participants de ses IXP de bénéficier de l’accès aux autres IXP ainsi qu’aux autres IXP auquel il est interconnecté via des Route-Servers

Les modèles institutionnels des IXP

Une variété de modèles institutionnels a été adoptée pour faire fonctionner les IXP. Ils se répartissent en trois catégories généralement :

Association des opérateurs Internet à but non lucratif

C’est le modèle le plus répandu. Les opérateurs dans le cadre d’une association neutre et indépendante opèrent l’IXP. Les contributions financières et ou humaines de chacun des membres permettent de couvrir le fonctionnement de l’infrastructure.

Les contributions financières sont déterminées par la vitesse (bande passante) de leurs connexions à l’IXP ou, moins fréquemment, par le volume de trafic qui passe à travers l’échange

L’IXP financé par un sponsor.

Très souvent le sponsor est un Pouvoir Public qui finance les infrastructures et les met à la disposition des opérateurs. Celui-ci peut réclamer des contributions financières aux participants ou prendre en charge l’ensemble des frais de fonctionnement.

L’IXP comme une entreprise commerciale

On les retrouve très souvent aux Etats-Unis, ou des entreprises commerciales opèrent des IXP. Ils agissent en tant que fournisseur neutre et ne font pas de concurrence aux autres fournisseurs de services Internet dans la fourniture de services aux utilisateurs finaux.

Les Prérequis pour la mise en place d’un IXP

Le site

Le site doit être accepté par l’ensemble des membres. Très souvent un emplacement dans un Datacenter est choisi

Le site abritant l’IXP doit évidemment être physiquement proche des réseaux des potentiels membres

Le site abritant l’IXP doit disposer de toutes les commodités permettant d’assurer un service en continu :

  • Energie électrique disposant d’onduleurs et de groupes électrogènes pour le secours
  • Climatisation
  • La disponibilité de nombreux liens ou réseau fibres optiques vers le site
  • La sécurité physique du site (anti-incendie, anti-intrusion, vidéo-surveillance,..)

Les opérateurs

Il faut être au moins trois opérateurs pour envisager un IXP

Des règles de fonctionnement bien définies

Des règles bien définies et acceptées par tous qui vont assurer l’indépendance, et la neutralité de la structure, sont indispensables.

Les cotisations ou les prix des prestations doivent être repartis ou définis de manière équitable

Les utilisateurs

Il faut évidemment que le contenu local Internet soit important et que les utilisateurs les consultent.

Les équipements réseau

Il s’agit très souvent de commutateurs réseau, de route-servers, …

Les ressources humaines

Les personnes qui seront en charge quotidiennement de faire fonctionner l’IXP. Il s’agit du personnel administratif, financier et technique.

Les installations étant très souvent peu complexes, pas besoin d’avoir une batterie d’ingénieurs. En tenant compte de la taille de l’IXP, un NOC peut être envisagé.

Les opérations au quotidien

Un NOC, (centre d’opérations disponible 24h/24 et 7j/7 pour fournir une assistance technique aux participants et maintenir les infrastructures de l’IXP

Un monitoring en temps réel de la qualité de service et anticiper les pannes éventuelles

Un service de statistique pour publier la liste des participants à l’IXP, le trafic échangé entre ceux-ci

Un site web qui permet de fournir les informations, statistiques, sur les services offerts par l’IXP

Ci-dessous un exemple du pricing pratiqué par le point d’échange Internet Equinix de Paris

Service Installation Monthly recurring Installation delay
Port 1GE – 1Gbps 500 EUR 0 EUR 5 working days
Port 1GE – 1Gbps additional port 500 EUR 250 EUR 5 working days
Port 10GE – 10Gbps 1500 EUR 750 EUR 5 working days
Port 100GE – 100Gbps 13000 EUR 3500 EUR 5 working days
VLAN 0 EUR 0 EUR 1 working day

Aperçu des IXP à travers le monde

Plusieurs ressources sur Internet fournissent un répertoire des IXP à travers le monde.

PCH, Packet Clearing House (www.pch.net), qui au cours des vingt dernières années, a fourni une assistance pour la mise en place de plusieurs IXP existants gère un répertoire global des IXP, et publie des statistiques sur leur utilisation et leur la croissance.

La répartition des IXP à travers le monde reflète le niveau de développement d’Internet. Les Etats-Unis avec 86 IXP arrivent en tête des 125 pays disposant de ce type d’infrastructure. Le Brésil avec 27 IXP, la Russie et l’Allemagne avec 21 IXP chacun, la France avec 18 IXP forment le top 5.

80 pays dans le monde ne disposent pas encore d’IXP.

Pour la liste complète des pays, il faut aller à l’adresse : https://www.pch.net/ixp/summary

En termes de nombre d’opérateurs participants à un IXP, le tableau ci-dessous présente le top 10

Country City IXP Name Participants Traffic Established
Brazil São Paulo Ponto de Troca de Tráfego Metro São Paulo

817

1.89T

04-oct-04

Netherlands Amsterdam Amsterdam Internet Exchange

783

7.69T 29 Dec 1997
Germany Frankfurt Deutscher Commercial Internet Exchange

702

4.79T May 1995
United Kingdom London London Internet Exchange

698

2.6T

08-nov-94

Indonesia Jakarta OpenIXP Internet exchange Point

673

241G

2005

Netherlands Amsterdam Neutral Internet Exchange

547

1.2T

01-mars-02

United States Los Angeles Any2 California

449

68G Dec 2005
Russia Moscow MSK-IX Moscow

397

3.85T

25-nov-95

France Paris Equinix Paris

315

NC

2008

France Paris France-IX

299

1.07T

nov-10

Pour ce qui est du Top 10 en termes de trafic nous avons le tableau ci-dessous

Country City IXP Name Participants Traffic Established
Netherlands Amsterdam Amsterdam Internet Exchange

783

7.69T 29 Dec 1997
Germany Frankfurt Deutscher Commercial Internet Exchange

702

4.79T May 1995
Russia Moscow MSK-IX Moscow

397

3.85T

25-nov-95

Russia Ekaterinburg MSK-IX Ekaterinburg

40

3.8T 1 Dec 2012
Russia Novosibirsk MSK-IX Novosibirsk

48

3.8T

2004

United Kingdom London London Internet Exchange

698

2.6T

08-nov-94

Brazil São Paulo Ponto de Troca de Tráfego Metro São Paulo

817

1.89T

04-oct-04

Netherlands Amsterdam Neutral Internet Exchange

547

1.2T

01-mars-02

France Paris France-IX

299

1.07T

nov-10

Russia Moscow DataIX Moscow

39

990G

20-oct-10

Telegeography (www.telegeography.com) la firme de consulting spécialisée dans les études de marché dans le domaine des télécommunications maintient également un répertoire des IXP et propose une belle carte mondiale des IXP. Ci-dessous une image de la carte dans le monde.


Source : http://www.internetexchangemap.com/

D’autres ressources sont également disponibles sur Internet :

Budget moyen d’un IXP

Les budgets nécessaires à la mise en place d’un IXP sont relativement peu importants. Les équipements sont relativement simples, la mise en œuvre facile. Le plus compliqué l’identification du site qui va abriter l’IXP et la mise en place de toutes les commodités évoquées avant. Il arrive très souvent que ce site soit offert par un sponsor.

Selon l’ISOC, l’Internet Society un budget moyen de 40 00 USD est requis pour la mise en place d’un IXP. L’ISOC indique que la mise en place du Cairo Internet Exchange en 2002 a nécessité un budget de l’ordre de 10 000 USD.

Pour ce qui est du budget de fonctionnement, cela reste également raisonnable, le nombre d’employés nécessaires étant réduit et les équipements simples à maintenir.

Source