de 1914 à nos jours, l’espace aérien se structure petit à petit

Voler en sécurité : voila qui préoccupe tout passager dans un salon d’embarquement. Nous sommes peu de choses a 30 000 pieds d’altitude et nous nous en remettons généralement, bon gré mal gré, au parfait état de fonctionnement de l’aéronef et aux compétences du pilote. Mais deux éléments de sécurité fondamentaux, tout aussi techniques que les avions et dépendant fortement de facteurs humains, passent généralement plus inaperçus. Il s’agit d’une part de la structuration de l’espace aérien et les services en route et d’autre part de l’existence de technologies de positionnement des avions.

Les bases des systèmes de navigation

Les instruments d’aide à la navigation : vers un pilotage aux instruments.

Dès les débuts de l’aviation des ingénieurs ont cherché des solutions au problème du maintien d’un cap dans une atmosphère dont les vents varient en force et direction. En 1914, Lauwrence Sperry fait voler un avion doté d’un pilote automatique rudimentaire ancêtre du conservateur de cap.

Ce système rudimentaire agit sur les commandes en fonction du comportement d’un stabilisateur gyroscopique. Rien a voir avec les pilotes automatiques très sophistiqués d’aujourd’hui.
A l’époque on pratique le vol a vue ou « VMC » (Visual flight rules). Il s’agit d’un vol qui se pratique de jour, a basse altitude et avec une présence modérée de nuages. Le pilote aperçoit des repères au sol qui lui permettent de suivre une route planifiée. S’il ne veut pas se perdre il doit s’assurer avant de décoller que les aérodromes de sa région de vol ne seront pas pris dans les nuages ou le brouillard. Or, si l’on souhaite voler en tous lieux et en toutes heures pour rejoindre des destinations lointaines, il faut nécessairement en passer par des phases du vol ou l’on risque de perdre le contact visuel avec le sol.

Les balises terrestres

Nombre de pilotes se sont perdus dans les brumes du nord de la France durant la guerre 14-18. Cependant, une prise de risque qui apparaît acceptable en tant de guerre ne l’est pas en temps de paix et a fortiori pour l’aviation civile. Dès la fin de la guerre, des phares identiques à ceux utilisés en mer commencent à jalonner le territoire. L’apparition des premières compagnies commerciales en 1918 a conduit a baliser de nouvelles routes et aérodromes. En 1920 naît un plan d’implantation de phares fixes.

les phares de france
Phares de navigation aérienne en France implantations à partir de 1921

Utilisation des ondes radio

L’utilisation des ondes radio permet tout d’abord de transmettre des messages entre les personne à bord des avions et des personnes au sol. Mais une deuxième utilisation, plus méconnue est très courante. Il s’agit de l’utilisation des signaux radio pour l’aide au positionnement des avions.

Cette tentative d’aider le pilote dans sa navigation est très utile en route mais ne garantit rien si l’aérodrome ou l’on veut se poser se trouve être sous une couche de nuages. Dans ce cas, le pilote doit être aidé pour pouvoir conduire son avion jusqu’au seuil de piste.
Si les premières radios TSF (télétransmission sans fil) sont venues équiper les avions de renseignement de la première mondiale, l’utilisation des signaux électromagnétiques comme aide au pilotage est apparue plus tardivement et l’entre-deux guerres permettra de poser les bases de l’atterrissage aux instruments.
Dès 1920 le principe de l’utilisation des ondes radio pour se repérer est envisagé.

En 1925, l’Aéroport de Paris-Orly est le premier a être équipé d’une balise NDB (Non Directional Beacon). Qui est une station d’émission de signaux radio pour les avions.

Là encore est copiée la logique de fonctionnement de la navigation maritime a savoir que des stations au sol émettent des signaux radio et qu’un bateau en mer (ou donc un avion), équipé d’un récepteur-goniomètre peut se situer en pointant la direction d’au moins deux signaux.
Pour l’aviation, deux possibilités sont envisagées : soit l’émetteur est placé dans l’avion et un opérateur au sol peut le localiser. Soit l’émetteur est placé au sol et l’avion embarque un radiogoniomètre.
Dans les années 20, naît donc le métier d’opérateur de radiogoniométrie. C’est l’ancêtre du contrôleur aérien. Dans un premier temps il fournit une aide a la navigation c’est à dire qu’il communique a l’équipage des information de cap et de position. La communication se fait alors en morse (tout cela a bien changé). La référence de communication était le code « Q » dont il est resté quelques traces. Par exemple quand un contrôleur donne la mesure de la pression atmosphérique au niveau du terrain, il parle de « QFE ». Autres exemples : le QFU qui désigne l’orientation magnétique d’une piste, le QDM est quand a lui le relèvement magnétique c’est a dire la direction de déplacement de l’avion.

Le système gagnant en précision, il devient envisageable d’utiliser le positionnement par radiogoniomètre pour assister le pilote dans la phase d’atterrissage.

En 1930, pour la première fois, un pilote (Gaston Guenin) arrive a se poser sur une piste (celle de Dortmund) en perçant une couche de brouillard.

Il est aidé par un opérateur de radiogoniométrie au sol qui localise les signaux radio émis par un émetteur placé dans l’avion. Il est en mesure de lui donner dans un premier temps une route vers la verticale de l’aérodrome puis il le guide dans l’accomplissement du circuit de piste.

Le radar primaire

Le radar est un système d’écholocation. Un émetteur produit des signaux dans toutes les directions. Si aucun écho (retour du signal) n’est perçu, il n’y a rien dans la direction donnée. Si au contraire, un objet se trouve sur une des directions, alors le signal « rebondit » et revient au pour de départ.

En 1935 Robert Watson-Watt invente le radar primaire qui permet de localiser des aéronef par l’écho qu’ils génèrent lorsque des ondes radar les atteint.

Les conventions internationales pour établir des règles communes

le 7 décembre 1944 est signée la convention de Chicago. Les pays signataires s’en remettent a une organisation internationale l’OACI pour définir les règles relatives aux vols internationaux. C’est cette instance qui permet, par l’élaboration de règles communes à des milliers d’avion de voler quotidiennement d’un pays à un autre et ce, en toute sécurité.

Le principe est relativement simple : si les pilotes devaient répondre à une une réglementation différente pour chaque pays survolé, autant oublier tout de suite le vol international.

Cette notion de règlementation internationale s’est invitée dès 1909 dans le monde de l’aéronautique avec la traversée de la Manche par Blériot, accueilli alors à Douvre par la douane anglaise. La notion de sécurité aérienne y est aussi intimement liée.

« CelIe-ci a cherché les moyens de protéger, d ‘une part, le public contre la gêne ou le risque que peuvent occasionner la circulation aérienne, et d’ autre part, les aviateurs contre les dangers que leur font courir leur imprudence, Ieur témérité ou les vices des appareils, tout en restant dans I ‘esprit le plus large d ‘équité et de progrès ».

Le 18 novembre 1911 , Victor Augagneur à propos de I ‘œuvre de la commission permanente de navigation aérienne :

Le décret du 18 novembre 1911, traite notamment des permis de navigation, des règles d’atterrissage et de navigation, du certificat de navigabilité ou de l’immatriculation des aéronefs.

Il faut attendre le traité de Versailles (1918) pour voir se poser les bases d’une convention internationale puis la création de la CINA (Commission Internationale de Navigation Aérienne) en 1919 dont la structure préfigure le fonctionnement de l’OACI.

La deuxième guerre mondiale et le développement des technologies de détection.


La deuxième guerre mondiale éclate et les moyens de radionavigation ne cessent de se développer. L’usage de radiogoniomètres et du radar primaire a des fins militaires sont un atout considérable pour les puissances disposant de ces technologies.

Au cours de la bataille d’Angleterre, en 1941-1942, les anglais, possèdent sur leur territoire un réseau de radars leur permettant de « voir » arriver l’ennemi ce qui leur donne un avantage considérable.

Mais un écho radar n’est pas la signature d’avions ennemis. Il peut s’agir d’avions amis de retour à la base. C’est pour cette raison qu’ Allemands et anglais mettent au point séparément, un système d’émission automatique embarqué dans les avions dont le but est de distinguer les amis des ennemis (Idendification Friend or Foe). Il s’agit de l’ancêtre du transpondeur qui équipe aujourd’hui la plupart des aéronefs.

Après la seconde guerre mondiale, des besoins de plus en plus importants pour l’aviation civile.

Au sortir de la guerre, ces technologies sont recyclées dans le domaine civil.  Rapidement les compagnies aérienne se développent et le trafic augmente. Pour en assurer la sécurité, les états structurent leur espace aérien ouvrent un service du contrôle aérien. Pour ce faire, les aéroports se dotent de systèmes d’assistance a l’atterrissage toujours plus complexes.

Dans les aéronefs des récepteurs dédiés affichent les paramètres permettant au pilote de se situer par rapport à sa route. L’apparition d’afficheurs automatiques sur les tableaux de bord permet de se passer de l’intervention de l’opérateur au sol qui va se consacrer à d’autres tâches.

Le transpondeur est un autre système très répandu aujourd’hui.  C’est grâce a lui que vous pouvez suivre l’avion de votre mamie qui part en vacances sur un site comme flightradar24 par exemple.

Le transpondeur utilise lui aussi des échanges de signaux radio. Pour faire il s’agit d’un émetteur radio qui diffuse en continu la position et l’identité de l’avion.
L’augmentation constante du nombre d’avions en l’air conduit a une structuration de l’espace aérien. Celui-ci est découpé en volumes dans lesquels la liberté de voler est plus ou moins contrainte mais aussi dans lesquels des contrôleurs vont rendre des services (météo, info trafic par exemple).
Dans les années 50, apparaissent les VOR (VHF Omnidirectional Range). Ces nouvelles balises radio sont disposées au sol et dont leur signal contient des informations sur la direction dans laquelle elles ont été émises. Il permet de se positionner sur une route sans pour autant survoler la radiobalise. Le DME utilise la vitesse de propagation de l’onde radio pour mesurer la distance entre l’aéronef et une station au sol. il est très souvent associé au VOR pour l’assistance a l’atterrissage en cas de mauvais temps.

le GPS qui est mis au point par les américains en période de guerre froide (1960-1995) est basé sur l’utilisation d’un réseau de satellites.

C’est le plus populaire des systèmes de positionnement, mais aussi le plus pointu d’un point de vue technologique et le plus coûteux. Tellement pointu  que seules deux grandes puissances ont envisagé de le développer :

  • les Etats-unis avec un projet dont la conception date des années 60 (Ivan Getting )
  • plus récemment l’Europe avec le projet Galiléo, initié en 2004 et qui doit être mis en route en 2020.

Il faut en effet savoir construire puis envoyer des satellites au dessus de notre atmosphère, mais également fabriquer une horloge atomique (C’est a dire une horloge ultra-précise) pour l’embarquer dans lesdits satellites  . Enfin il faut développer des récepteurs capables de traduire les signaux reçus en position en tenant compte d’effets relativistes. Travail que peut faire assez facilement aujourd’hui un processeur d’ordinateur par exemple.

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.