Notice: Function _load_textdomain_just_in_time was called incorrectly. Translation loading for the the-events-calendar domain was triggered too early. This is usually an indicator for some code in the plugin or theme running too early. Translations should be loaded at the init action or later. Please see Debugging in WordPress for more information. (This message was added in version 6.7.0.) in /Onsen/data/site_DRONEEDUC/htdocs/wp-includes/functions.php on line 6114
Exemples de projets pédagogiques

EXEMPLES DE PROJETS PÉDAGOGIQUES

Cadre commun des projets pédagogiques : Développement d’une plateforme d’observation du littoral construite autour de capteurs, de drones aériens, marins, sous-marins et bouées.

Les missions ciblées sont variées et reposent sur l’observation du littoral (surveillance et observation) grâce à des vecteurs mobiles et une station de contrôle à terre. Elles mettent en jeu :

  • des technologies récentes :
    • drones aérien, marins, et sous-marins, bouées connectées;
    • réseaux de capteurs (IoT), edge computing (deep learning et analyse d’images) et  instrumentation embarquée
    • modalités et protocoles de transmission des données.
  • la  création de plateformes ouvertes communautaires : 
    • données de trajectoires de bateaux sur un hub AIS pour le trafic maritime ;
    • bases de données images/vidéos/lidar capturées par les drones pour l’apprentissage (détection, tracking, classification, comptage et identification de bateaux de plaisance, détection d’OFNI, bateau connecté,…).

Webmaster :

Le projet DroneEduc a pour objectif le développement de modalités pédagogiques innovantes utilisant les drones comme vecteurs d’apprentissage. Il s’agit d’un programme multidisciplinaire à vocation pédagogique qui se positionne sur des problématiques d’observation environnementale à partir de drones aquatiques, aériens et sous-marins.

L’objectif de la plateforme web est de mettre en avant le projet DroneEduc via par exemple des vidéos YouTube ou des graphiques relatifs à des missions effectuées avec les étudiants.

Développement de logiciels de pilotage manuelle et de navigation autonome :

Le drone CyberJet est est un drone aquatique embarquant un système Linux Ubuntu. Il est doté d’un GPS, d’un arduino Nano et d’un contrôleur Rototeq SDC permettant le contrôle et l’obtention d’informations relatives au drone. Plusieurs applications fonctionnant sous iOS et Android de pilotage manuel et autonome ont été développées par des étudiants de L3 (2017-2019) : développement sous objective-c, swift et java. Utilisation du framework Moos-IVP.

Depuis 3 ans, plusieurs fonctionnalités de pilotage d’un droen aquatique sont également développées dans le cadre des TEA de l’UE développement sur smartphone par des étudiants de licence troisième année. 

  1. Représentation de la trajectoire suivie par le drone
  2. Pilotage manuel du drone via les accéléromètres du téléphone
  3. Définition de la trajectoire à partir de waypoints dessinés sur l’écran
  4. Sauvegarde de la trajectoire 

Le drone Jetskins est actuellement équipé d’un sonar monofaisceau, d’un GPS, d’un capteur AIS et d’une sonde pour l’analyse de l’eau : 

– le GPS permet de connaitre en temps réel le positionnement du drone, 

– le capteur AIS donne les bateaux émetteurs à proximité 

– le sonar donne en permanence la hauteur d’eau.

– la sonde mesure des paramètres physico- chimiques de l’eau.

Ces informations peuvent être utilisées lors des campagnes de mesures bathymétriques. L’objectif était de développer un logiciel avec interface graphique intégrant les informations de positionnement (GPS), de profondeur d’eau, de données AIS, de qualité de l’eau, de l’état de la liaison wifi et de la vidéo.  Ce logiciel est exécuté sur un PC portable à distance du drone. Il agit donc comme client réceptionnant les données via l’interface wifi (ou 3G) transmises par les serveurs s’exécutant sur le drone. L’interface intègre le pilotage du treuil.

Le BlueROV2 est un des drones sous-marins les plus abordables du marché : il possède 6 propulseurs vectorisés, une électronique de contrôle et des logiciels open-source

Les travaux conduits par les étudiants ont permis, d’une part, de s’affranchir du câble de pilotage du drone, et d’autre part, de rendre le drone totalement autonome lors de ses missions sous-marines.  Une liaison WIFI et GPS permet de contrôler le drone en surface, et l’autonomie du drone est assurée par une architecture ROS et sa pile de navigation.

L’objectif est ici de développer un système de pilotage autonome du sous-marin. Le sous-marin doit pouvoir se déplacer sur la surface de l’eau grâce et se localiser grâce au GPS, puis descendre sous l’eau en totale autonomie pour effectuer une mission définie à l’avance.

Le Lidar est le capteur classiquement adopté pour que les véhicules autonomes, qu’ils soient terrestre ou aquatique, puissent détecter les obstacles. L’image obtenue grâce à ce capteur est un nuage de point qu’il est nécessaire d’interpréter. L’objectif du projet était d’utiliser ces informations et les intégrer dans une pile logiciel de navigation comme proposée par ROS et ISAAC. Après avoir pris en charge ces deux environnements de développement pour la robotique, il a été nécessaire de comprendre comment les piles de navigation fonctionnaient, et quelles informations il était nécessaire de leur transmettre pour éviter les obstacles. L’intégration des codes a été effectué sur les cartes Jetson TX2 et Xavier. 

L’objectif final est de développer une application permettant, grâce à un lidar, une navigation planifiée tout en évitant les obstacles.

Le capteur LiDAR (Détection de la lumière et mesure à distance), qui permet de reconstituer des environnements en trois dimensions, est un élément majeur des véhicules autonomes. Pour atteindre une grande autonomie, le véhicule a besoin d’être renseigné sur l’environnement qui l’entoure. C’est pourquoi différents capteurs sont mis en place : caméra, sonar, radar mais aussi LiDAR. Celui-ci fonctionne grâce à une technique optique active de mesure à distance. Il émet une onde lumineuse grâce à un laser qui se réfléchit sur un objet et est ensuite détectée par le télescope à l’intérieur du LiDAR. Par la suite, un photo-détecteur convertit cette lumière en signal électrique qui est envoyé à un système de traitement.  Le temps pris par une impulsion laser pour parcourir l’aller-retour entre le lidar et une cible est mesuré ce qui permet de déduire la distance entre l’objet et le LiDAR en connaissant la vitesse de propagation de l’onde. La vitesse de l’objet est calculée grâce à la variation de fréquence entre l’onde émettrice et l’onde réceptrice (effet Doppler). 

Le LiDAR se distingue des autres capteurs par une très grande précision dans la mesure de distance due à de courtes impulsions. De plus, il permet de cartographier un environnement 3D en temps réel grâce à sa rapidité de traitement et d’acquisition des données. Cependant, certains matériaux (verre, métaux polis) peuvent ne pas être détectés. L’objectif du projet a été de déterminer les différentes conditions qui peuvent poser problème au LiDAR. Ensuite, plusieurs mesures avec le LiDAR sous différentes conditions ont été effectuées et analysées pour vérifier si elles étaient en accord avec les hypothèses. Puis, on a déterminé dans quelles situations réelles ces conditions pouvaient poser problème. 

Les différentes expériences ont montré qu’un objet cylindrique n’était pas totalement détecté par le LiDAR. On observe donc un diamètre sur l’image qui est plus petit que le diamètre réel. Pour estimer, ce problème, on calcule par exemple la valeur de l’angle limite de déviation

Le drone CyberJet est un des tout premiers drones aquatiques existant et embarquant un système Linux Ubuntu. Il est doté d’un GPS, d’un arduino Nano et d’un contrôleur Rototeq SDC permettant le contrôle et l’obtention d’informations relatives au drone. Une application sous iOS et Android a été développée par les étudiants de L3 de la faculté des sciences sur plusieurs années, pour d’une part, manœuvrer le drone à distance, et d’autre part, lui permettre de naviguer à l’aide de waypoints.  Un bridge logiciel a également été développé avec le framework MOOS-IVP.

Le starFish 990F est un sondeur à balayage latéral haute résolution permettant l’obtention d’une image des fonds sous-marin de qualité. Il permet ainsi une détection plus fin des objets. Il possède une portée de 35 m sur chaque canal ( couverture totale de bande de 70 m) et permet ainsi des levés haute résolution dans les ports, les voies navigables intérieures telles que les rivières et les canaux. Il est utilisé par exemple pour les opérations SAR ( recherche et récupération / sauvetage ).

L’objectif est de mettre en oeuvre ce sonar dans le port de La Rochelle et sur des voies navigables afin de déterminer ses capacités et la résolution des images obtenues.

Plateforme de contrôle à terre :

A l’université de La Rochelle, a été développée une plateforme de capture de trajectoires de bateaux dans le bassin des Pertuis. L’acquisition des trajectoires se fait à partir des données émises par leur émetteur AIS. Ces informations une fois obtenues sont transmises en temps réel à la plateforme internationale AISHUB.

 Pour garder un historique, les données sont également stockées au format JSON sur un serveur  en local. Les étudiants dans le cadre de plusieurs stages de L3 ont développé un site web permettant la visualisation des trajectoires de bateaux sur une période de temps choisie par l’utilisateur.

Le suivi de plusieurs objets simultanément est une fonctionnalité nécessaire au comptage des objets dans une scène vidéo. Nous avons proposé plusieurs projets de suivi sur des cibles différentes : Comptage de véhicules routiers, comptage de bateaux, suivi de joueurs (les contraintes sont pour les deux derniers différentes, car il y a un fort risque d’osculation). De plus, à la place des méthodes de soustraction de fond, des algorithmes d’intelligence artificielle (Yolo3 et ses variantes) sont utilisés.

L’objectif du projet était d’évaluer l’opérationnalité d’un système innovant de comptabilisation automatique des embarcations à l’entrée du port des Minimes à l’aide d’algorithmes d’analyse d’images et d’intelligence artificielle. Le système développé permet de détecter lorsqu’une embarcation passe dans le chenal, de la suivre sur la vidéo, de reconnaitre le type d’embarcations parmi 10 types. Aucune identification du bateau n’est possible avec ce système, seul un comptage selon le type est effectué.

Capteurs, détection d'obstacles et projet UBISEA :

Le pilotage des drones nécessite une bonne couverture wifi. A cause de la petite taille des drones et de la faible hauteur des antennes sur l’eau, la liaison wifi n’est pas toujours assurée, et des coupures importantes peuvent nuire à la sécurité du drone. Il s’avère donc nécessaire de mieux comprendre comment les ondes se propagent sur l’eau, entre un drone aquatique et sa station de contrôle souvent située à terre.

Une fois les mesures de puissance effectuées sur l’eau, il est nécessaire de visualiser les données obtenues sur un secteur maritime particulier. Le site web développé permet la visualisation de la zone explorée sous la forme d’une carte. Se superposent à cette carte, les valeurs de puissance mesurées, soit en des points particuliers, soit selon des tracés de navigation définis. Il permet aussi la visualisation de données prises au cours d’un mission.

Il est possible à partir de l’interface d’accéder à différentes zones de la carte maritime et aux mesures obtenues expérimentalement en ces lieux. Des photos prises sur le secteur maritime peuvent être également affichées sur l’interface logicielle ainsi que certains paramètres d’acquisition (hauteur d’antennes, date d’acquisition, etc…). 

L’environnement marin affecte les capacités de communication des composants d’un système de surveillance comme les bouées ou les véhicules de surface autonome. L’objectif de ce projet était de contrôler un drone aquatique à des distances pouvant atteindre plusieurs kilomètres. Pour piloter celui-ci, a été construit un réseau ad-hoc constitué de trois points d’accès WIFI, dont l’un est monté sur un drone aérien (UAS).

Le projet UBISEA étudie la possibilité, grâce à des algorithmes de deep learning, de détection, de reconnaissance et de localisation des embarcations et des cétacés à partir d’un réseau maillé de bouées. La phase préparatoire, actuellement en cours, doit permettre d’étudier les solutions existantes de localisation en acoustique passive, ainsi que récolter des banques de données de sons.

L’objectif est d’enrichir notre banque de sons avec de nouvelles sources et de fournir des solutions de localisation en acoustique passive.

Nous développons dans le cadre du projet UBISEA, avec deux entreprises partenaires locales, SYSTEL et UBIDREAMS, un réseau de bouées marines équipées de capteurs.

Ces bouées peuvent actuellement échanger des messages de plusieurs types :

  • message de position ( longitude, latitude ) transmis régulièrement par chaque bouée à ses bouées voisines.
  • message d’alerte, d’abord transmis par une première bouée. Le message est ensuite relayé par les autres bouées jusqu’à sa destination finale.
  • message de bonne réception lorsqu’une bouée a reçu un message.

L’objectif est de développer un réseau de bouées intelligentes, qui se communique via le protocole LORA en basant sur du routage avancé.

Plus d'informations

 

Lieu : IUT & L3i

Encadrement : @Drone-educ ( L3i, Faculté des sciences, IUT, LIENSs).

Encadrants : Alain Bouju, Alain Gaugue, Jamal Khamlichi, Bruno Lecalier, Michel Ménard.

Entreprises partenaires : IMSolutions.

Autres partenaires : port de plaisance de La Rochelle, Agence des Aires Marines Protégées.

Stages : Licence L3 informatique, Département R&T IUT, École préparatoire, 3ème.

© 2024

Theme by Anders NorenUp ↑