10 - Supervision un peu plus avancée
Stéphane BortzmeyerRésumé
Si tout le monde pratique la supervision automatique des machines et services dont il est responsable, en revanche certains points de la supervision ne sont pas forcément connus de tous. Cet exposé parlera de différents points qui méritent d'être mieux connus, à partir d'exemples utilisant le logiciel Icinga (dont le langage de configuration permet de gérer plus facilement des groupes de machines ou de services). On parlera de tests mettant en jeu plusieurs sous-tests, avec un résultat du genre « au moins M parmi les sous-tests N doivent réussir », de l'écriture de ses propres tests, et surtout de la supervision multi-points. La complexité de l'Internet d'aujourd'hui est telle qu'il est relativement fréquent que le résultat d'un test dépend du point où est fait la mesure. Ainsi, un problème de routage ou de filtrage mal fait peut n'affecter que certains opérateurs, et un test depuis un seul point de mesure ne détectera pas le problème (ou au contraire le surestimera). Il est donc crucial de pouvoir faire une mesure depuis plusieurs points (par exemple avec les sondes RIPE Atlas, ou bien à partir de satellites d'un logiciel de supervision), et de pouvoir synthétiser le résultat. L'exposé est technique, et vise l'administrateur réseaux.
Biographie de l'auteur
IA agile sur smart blockchain quantique ? manque un peu de big data , de disruptif et on en fait une pleinière ! ;-) --- L'auteur travaille à l'AFNIC, registre des noms de domaine en .fr. Il s'occupe de DNS, de normalisation technique, et de veille technologique (plus particulièrement ce qui concerne l'Intelligence artificielle agile sur smart blockchain quantique à l'ère du big data). Il est l'auteur d'un livre sur les rapports de l'infrastructure de l'Internet avec la politique (« Cyberstructure », https://cyberstructure.fr) et d'un blog parlant de réseaux informatiques (https://www.bortzmeyer.org/).
18 - Le système d'information géographique, un outil d'avenir de gestion des infrastructures
Stéphane Dannhoff - Jean-sébastien TarotRésumé
Le réseau métropolitain de l’Université de Strasbourg est très étendu. Il comprend 140 bâtiments, compte 80 kilomètres de fibre optique et se déploie sur une superficie de 100 km². Il a même une vocation Européenne : il est interconnecté au réseau allemand BelWü (Baden Würtenberg) grâce à un partenariat avec ARTE. Compte tenu de cette taille et de cette complexité, il était devenu difficile d'envisager la gestion des réseaux d'infrastructures sans outil adapté. Un système d'information géographique (SIG) spécialisé est aujourd'hui indispensable pour planifier les déploiements, réaliser l'exploitation et la maintenance de ces réseaux de télécommunication. Si les SIG ne sont pas nouveaux, leur utilisation dans le domaine des télécommunications doit beaucoup au contexte national, dont l'avènement des offres de type FTTH déployées par de nombreux opérateurs, comme Orange et Free Telecom. De ce fait, des outils dédiés au réseau fibre optique sont apparus. Nous présenterons le projet et la mise en place du SIG à l’Université de Strasbourg. Ce projet a permis d’atteindre deux objectifs importants : le passage au tout numérique et la reprise des nombreuses données des réseaux existants. Un grand bénéfice de cet outil est de pouvoir planifier les évolutions majeures du réseau. En particulier, dans le cadre de la mise à jour du cœur de réseau Métropolitain, nous avons pu fiabiliser les routes optiques et développer une démarche projet pour l’adduction de nouveaux bâtiments. La présentation très illustrée vous fera plonger au cœur des fibres optiques de l’Université de Strasbourg et vous en ressortirez très éclairés.
Biographie de l'auteur
Stéphane Dannhoff débute sa carrière dans les années 90 dans le secteur des télécoms à un moment ou l’expansion dans le déploiement des réseaux câblés est au maximum. Dans le secteur privé, il occupe successivement les postes de technicien, projeteur d’étude pour devenir chef de projet en travaux neuf. Au cours de ces années, il acquière une expérience dans le déploiement d’infrastructure de réseaux télécoms fixe et mobile. Il maîtrise tous les aspects de la gestion de projet et son expertise technique s’étend du courant faible au courant fort. Stéphane choisit en 2016 de quitter le monde de l’entreprise et rejoint l’Université de Strasbourg. Au sein de la Direction du Numérique, il est gestionnaire de l’infrastructure du réseau métropolitain Osiris. En 2018, il réussit son concours et devient ingénieur d’études. Depuis, il occupe le poste de chargé de maintenance et d’exploitation. En plus de son activité d’exploitation et de gestion récurrente sur le périmètre de l’infrastructure optique d’Osiris, il est également impliqué dans des projets transversaux immobilier-numérique de grande dimension, en particulier le nouveau Datacenter de l’Université de Strasbourg. Jean-Sébastien Tarot est assistant ingénieur à la Direction du Numérique de l’Université de Strasbourg. Il a plus de 20 ans d’ancienneté à l’Université. Après un début de carrière sur des missions d’exploitation, il a pris des responsabilités dans les projets liés à l’infrastructure de fibre optiques ou du Datacenter de l’Université : * Création du Système d’Informatique géographique de l’Université et applications (objet de présentation à venir) * Mise en place du monitoring du Datacenter * Mise en place de la gestion capacitaire du Datacenter Passionné d’informatique et de géomatique, il aime tout particulièrement explorer des nouveaux domaines techniques.
47 - Cas d'usage d'un service L3VPN Renater à l'échelle d'un institut
Jérôme BerthierRésumé
La DSI Inria a instruit un projet de déploiement d'une solution de téléphonie unifiée à travers son réseau IP. Dans ce cadre, il était nécessaire d'assurer l'ensemble des échanges liés à cette infrastructure (flux signalisation et voix mais aussi accès utilisateurs et administrateurs au portail téléphonie). Comment adresser et router ces flux TOIP pour connecter les éléments répartis entre les neuf localisations Inria ? Après évaluation rapide, le choix s'est porté sur l'utilisation d'un adressage IPv4 privé RFC1918 associé à un routage L3VPN Renater. Nous aborderons dans un premier temps la problématique initiale et le choix tant au niveau de l'adressage IP qu'au niveau du mécanisme de routage des flux. Après avoir éclairé ce choix, nous découvrirons en quoi consiste un service L3VPN sur Renater et les modalités de raccordement. Le point clé de la solution repose sur l'élaboration d'une politique de routage WAN entre les différents sites raccordés. Nous évoquerons donc ensuite les fonctionnalités engagées pour assurer ces échanges de flux via les doubles raccordements WAN de chaque site Inria : * mise en place des peerings BGP et redistribution locale des préfixes L3VPN IPv4 Inria * politique de routage spécifique aux flux à traiter via le L3VPN (Policy Based Routing) * gestion de la résilience entre accès WAN : dual homing, convergence rapide Enfin, nous verrons les autres cas d'usage de ce service L3VPN pensé dès le départ comme évolutif.
Biographie de l'auteur
Jérôme BERTHIER a commencé sa carrière en 2002 comme exploitant réseau au sein du groupe La Poste. L’équipe de production dont il faisait partie avait en charge l’exploitation du réseau WAN et des accès sécurisés du groupe. En 2008, il a rejoint le Service des Moyens Informatiques du centre de recherche Inria Bordeaux - Sud-Ouest en tant qu'ingénieur système et réseau. Il a pu accompagner l'installation et la croissance de l'infrastructure de ce centre de recherche nouvellement créé. En 2011, il a ensuite intégré la DSI Inria pour intervenir sur l'ensemble des infrastructures réseau de l'institut. Il a notamment piloté les évolutions WAN et pare-feux des centres de recherche et du site d'héberment mutualisé. A ce jour, Jérôme est architecte réseau au sein du service DSI "Conception d'infrastructure". Au côté des autres architectes, il pilote l'étude et la mise en œuvre des évolutions d’infrastructure informatique notamment réseau et sécurité. Il est aussi Correspondant pour la Sécurité du Système d'Information (CSSI) depuis de nombreuses années.
51 - Supervision géolocalisée d'un parc de firewall avec check_mk
Jonathan ChatriotRésumé
Le parc de firewall que nous gérons est réparti sur un grand périmètre géographique. L’utilisation de coordonnées GPS nous est apparue indispensable pour localiser précisément l’ensemble de ces équipements sur une carte géographique et nous permettre d'intervenir rapidement en cas de défaillance. L’outil check_mk, déjà présenté lors des JRES 2015, est un outil puissant de monitoring basé sur le core Nagios. Ses performances permettent de surveiller de nombreux services en très peu de temps. Fort d’une expérience de plusieurs années sur cet outil dans sa version gratuite, nous avons pu exploiter ses fonctionnalités pour répondre à nos besoins. En s'aidant d'outils simples et connus de la communauté, nous avons pu répondre à notre problématique de localisation. Les briques GLPI, le plugin fusioninventory ainsi que la plateforme OpenData de l’état nous ont permis de constituer notre référentiel. Ce référentiel nous permet de générer automatiquement la configuration de notre outil de supervision Check_mk. Pour peaufiner l’affichage, le plugin Nagvis intégré dans check_mk nous offre une vue géographique synthétique grâce à sa “worldmap” basée sur “OpenStreetmap”. Nous détaillerons l’ensemble du processus, de l’inventaire du parc de firewall à la génération de la configuration de l’outil de monitoring et de la carte géographique associée. Nous verrons qu'il est tout à fait possible, malgré un grand nombre d'équipements à gérer, d'obtenir un résultat de supervision efficace en très peu de temps. Nous conclurons la présentation par un bilan rapide de l’utilisation de l’outil libre Check_mk et son apport au quotidien pour les différentes équipes de la Direction des Systèmes d’Information.
Biographie de l'auteur
Après 9 années passées en tant qu'ingénieur systèmes et réseaux au sein de l'ESR à l'Ecole Centrale de Lille , Jonathan Chatriot a rejoint le Rectorat de Lille en 2014. Actuellement responsable de l'équipe réseau et sécurité au sein de la Direction des Systèmes d'Information, il administre l'ensemble de l'infrastructure réseau du Rectorat. Jonathan est également membre du comité de pilotage du réseau métier régional des Hauts de France Min2rien depuis sa création en 2010. L'échange et le partage de connaissances sont des valeurs essentielles pour lui comme l'illustre sa proposition aujourd'hui.
53 - White-box
Xavier Jeannin - Alain Bidaud - Sébastien Vigneron - Maxime Wisslé - Eric Lachey - Edin Salguero WellmannRésumé
White-box, kézako ? Encore un nouveau « buzz word » ? Le mot « white » réfère à la notion de « sans marque » en opposition avec « branded box » produit de marque. Les white-box sont simplement des commutateurs/routeurs capables de faire tourner plusieurs systèmes d’exploitation réseau (NOS). La conséquence est que le matériel actif réseau peut être géré indépendamment de son NOS. Sommes-nous dans la même situation au niveau du réseau que lors de l'apparition de Linux dans le monde UNIX ? Les white-box proposent des capacités de relayage (forwarding) impressionnantes pour un prix très concurrentiel. Alors, pourquoi continuer à utiliser des routeurs traditionnels ? Certaines white-box fournissent encore plus d’indépendance et de liberté car leur data plane est programmable grâce à un langage P4, qui fournit un haut niveau d’abstraction. Il est désormais possible de manière relativement simple de créer son propre routeur mais aussi toutes sortes de matériels actifs réseau comme des outils contre les attaques DDOS, du monitoring sans échantillonnage. P4 est un outil formidable pour l’enseignement et la recherche dans le domaine des réseaux. Notre projet se déroule dans un cadre européen, en collaboration avec le réseau régional SYVIK ainsi que la région Normandie. Il vise à des applications concrètes des white-box pour plusieurs cas d’usage (CPE, commutateur/routeur pour point d’échange Internet, réseau de data-center). Il faut donc étudier la gestion des commutateurs/routeurs (la couche de management, la sécurité, le monitoring, automatisation), l’environnement de support (modèle de maintenance hardware et logiciel, documentation, communauté), mais aussi l’aspect coût, particulièrement le coût global de possession.
Biographie de l'auteur
Alain BIDAUD à débuté sa carrière en tant qu'ingénieur réseau. Au début des années 2000, il a participé à plusieurs projets européens au sein des groupes de travail TF-NGN, en particulier sur le déploiement de la technologie MPLS. Il est actuellement directeur technique du Centre Régional Informatique et d'Applications Numériques de Normandie (CRIANN). Il a en charge avec son équipe du maintien et de l'évolution du réseau régional normand SYVIK, ainsi que des moyens de calcul infensifs haute-performance. Eric Lachey a réalisé le maintien en condition opérationnelle de systèmes informatique (IBM, BULL, NCR) pour le compte de grandes structures (SNCF, Brittany ferries etc.). Depuis une vingtaine d’années, il porte pour le Conseil Régional de Normandie des projets d’infrastructures innovants en partenariat avec d’autres acteurs régionaux. Le projet U-CPE est une opportunité pour la collectivité de fournir pour ses compétences propres (les lycées) des services et fonctionnalités optimisés pour le raccordement au réseau régional SYVIK. Sébastien Vigneron a obtenu son master sécurité des systèmes d'information en 2009. Il a réalisé son stage de fin d’étude pendant 6 mois au sein de l’équipe technique du CRIHAN (CRIANN depuis 2016) au cours desquels il a participé à une étude et la mise en place de la virtualisation au CRIHAN. Dès la fin de son stage en septembre 2009, il a rejoint l'équipe technique du CRIHAN en tant qu’ingénieur système et réseau. Il contribue à l’exploitation des clusters de calcul, des grappes de stockage, la conception et le maintien opérationnel des serveurs et services. Il travaille également sur divers projets, parmis lequels la conception et mise en place du projet White-box CPE Normandy en partenariat avec GÉANT, le GIP RENATER et la Région Normandie. Maxime Wisslé a obtenu son master réseaux informatiques et systèmes embarqués en 2018. Il a réalisé son stage de fin d’étude pendant 6 mois au sein de l’équipe « Programmes, Projets Transverses et Innovation (P2TI) » au GIP RENATER au cours desquels il a participé à une étude sur le concept des « White Box » En août 2018, il a rejoint l'équipe « Production des Services aux Utilisateurs » en tant qu’ingénieur réseau. Il contribue à l’exploitation des réseaux backbone et d’accès. Il continue également de travailler sur divers projets, parmi lesquels l’étude des « White Box » en corrélation avec GÉANT et l’étude de la stratégie internet sur la partie production. Xavier Jeannin a commencé par travailler dans un laboratoire de mathématique puis pour le CNRS dans un laboratoire de science cognitive, de biologie et à l’unité réseau du CNRS (UREC). Il travaille maintenant à RENATER sur l’innovation et les projets Européens. Il travaillé sur les réseaux pour les grilles de calcul comme work package leader pour le projet EGEE et comme task leader dans plusieurs projets GÉANT. Il est actuellement task leader de l’activité « Network Technologies Evolution » qui couvre les thèmes: service temps & fréquence, chiffrement quantique, infrastructure à faible latence, transfert de données, data plane programming, Router for Academia, research end Education et white-box.
55 - le réseau Datacenter Unistra
Christophe Palanché - Alain Zamboni - Fabrice Peraud - Oumar NianeRésumé
L'Université de Strasbourg (Unistra) vient d'achever la construction d'un datacenter, d'une surface de 450 m2, répartis en quatre salles serveurs de 27 baies chacune ainsi que d'une salle opérateur de 12 baies. Pour l'urbanisation réseau de celui-ci, la DNum a fait le choix de partir sur un réseau indépendant de l'existant en s'appuyant sur des technologies dédiées aux datacenters. Ce réseau est ainsi basé sur une architecture de type Spine/Leaf et fournit une séparation underlay/overlay en utilisant des protocoles eVPN/VXlan. A l'issue d'un appel d'offres, ce modèle a été mis en oeuvre sur des équipements de marque Arista. Grâce au double attachement de tous ces éléments, ce réseau permet de répondre aux contraintes de haute-disponibilité. Il permet aussi d'interconnecter le site de PRA de l'université, localisé à l'heure actuelle à Strasbourg. Les choix d'architecture effectués permettront au besoin de le délocaliser dans un autre Datacenter de l'ESR. La création de ce nouveau réseau a également été l'occasion de mettre en place des outils d'administration et de supervision à l'état de l'art. Le poster présentera les éléments composants le réseau du datacenter, à savoir : * l'architecture de la fabric ; * les technologies et le matériel retenus ; * les outils utilisés pour le déploiement et l'exploitation : Zero Touch Provisionning (ZTP), Api de configuration, télémétrie, sauvegarde des configurations ; * des exemples de cas d'usages : prolongation d'un réseau de composante dans une baie de location, interconnexion d'un firewall redondant avec annonces de ses routes en BGP.
74 - eduVPN - Accès sécurisé à internet
Anass ChabliRésumé
eduVPN est un nouveau service Open Source en phase pilote au sein du GIP RENATER, déployé dans le cadre de notre participation aux projets internationaux GEANT. Il a été Initialement porté et développé par le réseau national de la recherche Hollandais en 2015 (communément appelé NREN), qui propose le service en production pour leur communauté. À ce jour 8 autres pays sont en phase pilote. Il permet la mise en place d’une connexion VPN sécurisée pour les membres de la Fédération d’Identité Éducation-Recherche depuis différents supports (Windows, Linux, iOS, MacOS, Android). Les utilisateurs peuvent ainsi accéder à Internet ou au réseau privé de leur établissement sans avoir à craindre les regards indiscrets. eduVPN peut être décliné sous deux options : 1. Instance gérée par le GIP RENATER et proposée à ses membres, qui a pour objectif de permettre à une certaine population (étudiants, employés ou chercheurs) de se connecter de manière sécurisée à Internet tout en utilisant son compte institutionnel via la Fédération d’identités Éducation-Recherche. En outre, eduVPN est une collaboration entre différents NREN. Vous pouvez donc utiliser des serveurs eduVPN d'autres pays, de la même manière que vous pouvez utiliser eduroam à l’international. 2. Instance déployée et gérée par l’établissement pour accéder à leur réseau privé, et applications internes de manière sécurisée, et ainsi remplacer ou compléter les solutions VPN existantes. Nous présenterons les différentes briques techniques du service, et aborderons les processus de mise en place du service au niveau organisationnel (gouvernance, charte …) et techniques (déploiement automatisé…).
Biographie de l'auteur
Anass Chabli, fait partie de l'équipe Fédération d'Identités qui opère l'infrastructure nationale de Fédération mise à disposition par RENATER pour la communauté Education-Recherche. Il participe à la conception et l'implémentation de solutions d'authentifications et d'autorisations dans un contexte de fédération d'identités, aussi bien au niveau national qu'international. C'est en effet, suite à sa participation aux activités de recherches niveau européen via GÉANT, qu'il présente aujourd'hui le projet "eduVPN".
93 - Migration de l'infrastructure d'un établissement en double pile IPv4 / IPv6
Jérôme Berthier - Guillaume CassonnetRésumé
Spécifié en 1998, le protocole IPv6 est l'alternative au protocole IPv4 dont l'espace d'adressage arrive à saturation. Depuis 2017, l'ensemble de registres régionaux d'allocation d'adresses (RIR) IP ont entamé leur dernier bloc IPv4 /8. Cette situation se heurte à la croissance exponentielle des besoins en connectivité notamment pour le développement de l'IoT. Depuis plusieurs années, les grands fournisseurs de contenu (Google, Facebook...) portent un adressage en double pile IPv4 / IPv6. De même, la majorité des fournisseurs d'accès Internet fixes et mobiles propose de manière transparente un adressage en double pile IPv4 / IPv6 à leurs abonnés. Afin d'assurer la connectivité de nos utilisateurs et de nos services publiés sur Internet, il devient stratégique d'assurer le traitement du protocole IPv6 dans les établissements. Loin d'être les premiers à réaliser cette évolution, nous proposons à travers cette présentation d'illustrer la démarche suivie afin d'intégrer IPv6 au même statut qu'IPv4 spécifiquement sur le site Inria Bordeaux - Sud-Ouest. Dans un premier temps, nous présenterons la préparation du réseau et la sécurité associée pour traiter le protocole IPv6 : plan d'adressage, routage, filtrage et sécurité niveau switch. Nous présenterons ensuite les étapes techniques de migration pour exposer des services en IPv6 mais aussi assurer la connectivité utilisateurs. Par quoi commencer ? Dans quel ordre basculer ? Quels services ? Enfin, nous dresserons un bilan rapide de cette migration. Attention spoiler, ça marche plutôt très bien !
Biographie de l'auteur
Jérôme BERTHIER a commencé sa carrière en 2002 comme exploitant réseau au sein du groupe La Poste. L’équipe de production dont il faisait partie avait en charge l’exploitation du réseau WAN et des accès sécurisés du groupe. En 2008, il a rejoint le Service des Moyens Informatiques du centre de recherche Inria Bordeaux - Sud-Ouest en tant qu'ingénieur système et réseau. Il a pu accompagner l'installation et la croissance de l'infrastructure de ce centre de recherche nouvellement créé. En 2011, il a ensuite intégré la DSI Inria pour intervenir sur l'ensemble des infrastructures réseau de l'institut. Il a notamment piloté les évolutions WAN et pare-feux des centres de recherche et du site d'héberment mutualisé. A ce jour, Jérôme est architecte réseau au sein du service DSI "Conception d'infrastructure". Au côté des autres architectes, il pilote l'étude et la mise en œuvre des évolutions d’infrastructure informatique notamment réseau et sécurité. Il est aussi Correspondant pour la Sécurité du Système d'Information (CSSI) depuis de nombreuses années.
96 - Remplacer un routeur par un serveur Linux : retour d'expérience des passerelles d'accès à Grid'5000
Simon Delamare - Lucas Nussbaum - David Loup - Dimitri DelabroyeRésumé
Grid'5000 est une infrastructure pour la recherche en informatique distribuée (Clouds, réseau, HPC…). La plateforme est composée d'environ 700 noeuds, mis à disposition des chercheurs, répartis sur 8 sites reliés entre eux par un réseau 10Gbits/s fourni par Renater. L'interconnexion de Grid'5000 avec Internet est réalisée par 2 routeurs. Jusqu'en 2018, des équipements réseaux traditionnels étaient utilisés mais les performances de ces routeurs n'étaient pas suffisantes pour répondre aux besoins des chercheurs, qui téléchargent des données de plus en plus volumineuses depuis Internet (images Docker, grands jeux de données, ...) Les débits plafonnaient en effet à 150Mbits/s bien loin du Gigabit/s qu'ils sont supposés atteindre. Les devis réalisés pour les remplacer par des équipements plus performant ayant un coût trop élevé (entre 29k€ et 38k€), nous avons fait le pari de changer à moindre coûts les équipements actuels pour des serveurs Linux classiques, fonctionnant sous Debian. Pari réussi : les performances sont convaincantes, nous saturons sans problème le lien 1G et depuis, avons même basculé notre accès internet à 10Gbit/s avec succès. De plus, l'utilisation d'un système Linux simplifie la configuration de l'équipement : gestion via Puppet, mise en place d'un proxy cache, développement de nouveaux services réseaux pour les chercheurs, ... Nous vous proposons donc un retour d'expérience sur cette migration vers des serveurs Linux. Nous présenterons la configuration matérielle et logicielle utilisée, comment sont effectuées les fonctions de routage et de filtrage, les services mis en place qui n'auraient pas pu l'être sur des équipements traditionnels, ainsi que les performances obtenues.
Biographie de l'auteur
David Loup est ingénieur à Inria au sein de l'équipe de recherche AVALON, au Laboratoire de l'Informatique du Parallélisme à l'ENS de Lyon. Il est administrateur systèmes et réseaux sur la plateforme d'expérimentation Grid'5000.
100 - DNA, la solution SDN SDA campus de Telecom-Paris
Christophe MassonRésumé
Avec la multiplication des services offerts aux utilisateurs et une demande accrue de sécurité, les réseaux modernes sont devenus beaucoup plus complexes que par le passé. Ces réseaux demandent une grande sécurité et des moyens d'analyse de flux performants et également une souplesse dans l'évolution et le déploiement. Le déménagement de l'Institut Mines Telecom sur le plateau de Saclay, nous a permis de nous interroger sur la direction à prendre pour notre nouveau réseau. Nos exigences étaient multiples, nous sommes partis à la recherche d'une solution permettant un réseau sécurisé résilient robuste et monitoré. Nous avons donc opté pour la solution DNA de chez Cisco. Cette solution basée uniquement sur du niveau 3 permet une macro et micro segmentation, permettant ainsi une grande robustesse et sécurité, cette sécurité est améliorée par un système de règles entre groupes d’utilisateurs. Le 802.1X supporté par la solution DNA permet une souplesse dans la gestion. Enfin le DNA embarque beaucoup d’outils d’analyse permettant un diagnostique rapide et précis des anomalies. La présentation portera sur les grands concepts de la solution DNA de Cisco et les avantages de cette solution. Nous aborderons également notre retour d'expérience sur cette jeune technologie.
105 - Automatiser son infrastructure réseau
Jérôme DurandRésumé
Les statistiques sont effrayantes : 95% des changements opérés sur les réseaux sont réalisés manuellement. Si l'on met de côté les coûts mirobolants associés à ces opérations, cela a également des impacts très forts sur la sécurité des réseaux puisque près des trois quarts des incidents de sécurité sont associés à des erreurs de configuration. À l'heure où les applicatifs sont nettement automatisés, le monde du réseau peut sembler être resté à la préhistoire. Et pourtant de nombreuses solutions permettent de sauter le pas et de programmer son réseau comme n'importe quelle application. Si les constructeurs proposent des solutions clé-en-main, il est également possible de bâtir son propre environnement d'automatisation complètement customisé, complètement adapté à l'infrastructure en place. Dans ce cas le risque principal est de se perdre dans des détails techniques loin des problématiques métier réelles. Quelles topologies sont propices à une automatisation massive simplifiée ? Quels sont les langages adaptés pour programmer les équipements réseau ? Quels outils de configuration et de vérification peuvent être utilisés ? Cette présentation vise à donner les éléments clé permettant à chaque administrateur réseau de sauter enfin le pas et d'avancer progressivement mais sûrement vers l'automatisation de son réseau.
Biographie de l'auteur
Jérôme a rejoint l'équipe R&D du GIP RENATER en 2002. Il a contribué à plusieurs projets sur IPv6. Il a notamment initié le déploiement du M6Bone, un réseau de test mondial pour le multicast IPv6. Il a également participé activement au projet 6Net, un réseau de test grandeur nature permettant de valider le fonctionnement en production du protocole IPv6. En 2006 Jérôme est devenu responsable des opérations de RENATER. Il a coordonné le déploiement de RENATER-5 et a apporté de nombreuses améliorations au réseau RENATER (convergence, gestion de la redondance, multicast...) En 2009, Jérôme est devenu responsable des services aux usagers de RENATER, et a ainsi contribué à ouvrir la voie à une offre globale de services sur RENATER, au-delà de la connectivité réseau. Jérôme a rejoint Cisco en 2011 comme expert sur les technologies de routage et de commutation. Il travaille avec ses clients et partenaires à l'élaborations de designs mettant en oeuvre des technologies réseau avancées: SDN, IPv6, multicast, BGP, MPLS... Il communique régulièrement sur les dernières avancées technologiques de Cisco sur son blog reseauxblog.cisco.fr ainsi que dans diverses conférences. Jerome contribue également à l'IETF: il est auteur du RFC 7454 - BGP Operations and Security et travaille sur d'autres propositions actuellement. Dernièrement Jérôme s'est très impliqué sur la programmation et l'automatisation des réseaux et notamment les solutions SD-WAN et SD-Access. Il est depuis 2018 leader technique en France sur les réseaux d’entreprise.
112 - Retour d'expérience d'un déploiement LoRaWAN à Strasbourg
Guillaume SchreinerRésumé
Contrairement au Wi-Fi ou au Zigbee qui se basent sur des technologies radio ayant une portée de quelques dizaines de mètres, le standard LoRaWAN approche des distances de plus de 10kms. Ces performances remettent fondamentalement en cause le précédent paradigme des réseaux maillés courte portée nécessitant plusieurs dizaines de nœuds intermédiaires pour couvrir la même distance radio. La plate-forme Inetlab du laboratoire ICube (UMR CNRS/Université de Strasbourg) a pour vocation de fournir les équipements et les logiciels destinés aux expérimentations des nouvelles technologies de l’Internet des Objets. En 2016 débute une expérimentation originale qui vise à déployer une infrastructure LoRaWAN complète (hardware et software) à l’échelle de la ville, mêlant ICube à l’Eurométropole de Strasbourg et à la startup Strataggem. Les buts multiples de ce déploiement sont d’évaluer le potentiel opérationnel de ce standard, l’émergence de nouvelles applications dans le contexte des villes intelligentes, les bénéfices à partager les antennes entre plusieurs acteurs locaux pour densifier la couverture radio, etc. A travers cet article, nous vous présenterons tout d’abord la norme LoRaWAN dans le contexte de l’IoT afin de préciser ses avantages et ses inconvénients théoriques. Dans un second temps, nous partagerons notre retour d’expérience sur l’architecture de l’infrastructure LoRaWAN déployée, allant de la réalisation des objets connectés jusqu’à l’intégration dans le système d’information, en passant par l’étude des performances observées. Enfin, nous illustrerons le formidable potentiel des objets connectés à travers les cas d’usages déployés, qui s’appliquent aussi bien aux activités de recherche des laboratoires qu’aux applications métiers des différentes directions des services techniques de l’Université ou des collectivités.
Biographie de l'auteur
Guillaume Schreiner travaille à l'Université de Strasbourg depuis 2005. D'abord au Centre Réseau Communication, opérateur du réseau Osiris, il a participé au projet IPv6-ADIRE, un projet de la Direction de la Recherche et l'Enseignement Supérieur, visant à promouvoir le déploiement d'IPv6 dans les universités. En 2006, il rejoint le LSIIT, pour collaborer à différents projets ANR (Airnet, SensLab) dans des domaines comme la mobilité IPv6, les réseaux Wi-Fi, les réseaux de capteurs. En 2009, il obtient le concours d'ingénieur d'études ITRF pour travailler au département Infrastructure de la Direction Informatique de l'Université de Strasbourg. Il participe à différents projets d’envergure tels que le déploiement du réseau métropolitain Osiris 3 ou l’outil collaboratif de messagerie SOGo à l’échelle de l’Université. En 2012, Guillaume Schreiner retrouve le laboratoire ICUBE et le CNRS pour devenir le responsable technique de la plate-forme Inetlab dédiée aux expérimentations des nouvelles technologies de l’Internet. En particulier, il participe au développement et à l’exploitation de l’Equipex FIT IoT-LAB qui propose un outil d’expérimentations reproductibles à large échelle pour l’Internet des Objets.
117 - Exploitation des réseaux de transport optique
Emilie Camisard - Moufida FeknousRésumé
La fibre optique et le multiplexage en longueurs d’ondes WDM sont les principaux moyens permettant de transporter les services très hauts débits utilisés dans la communauté Enseignement & Recherche. Ce type de réseau nécessite une analyse fine et un suivi régulier pour pouvoir maintenir un niveau de disponibilité très élevé. Nous présenterons un retour d’expérience de RENATER, avec des méthodes d’analyses et des procédures d’exploitation permettant d’identifier et résoudre dans les plus brefs délais les dysfonctionnements d’un réseau de transport optique. Après quelques rappels et généralités sur les éléments constitutifs d’une chaîne de transmission optique, nous décrirons les paramètres clés qui permettent de contrôler et maintenir le fonctionnement d’un réseau optique, ainsi que les alarmes nécessaires au diagnostic d’incidents et à la détection de services dégradés. Les procédures, la documentation technique disponible et les engagements de service jouent également un rôle important sur le temps de résolution des incidents. Les valeurs optiques, alarmes et logs sont stockés et supervisés dans des gestionnaires d’équipements optiques et des hyperviseurs comme Solarwinds, et représentés de manière synthétique et exploitable. Les incidents les plus fréquents sur un réseau de transport optique sont causés par des contraintes sur la fibre. Elles sont localisées par l’opérateur à l’aide de réflectomètres ou photomètres. Nous présenterons des exemples de mesures. Enfin, nous présenterons les axes d’amélioration de l’exploitation des réseaux que nous avons identifiés : proactifs (maintenances préventives régulières sur chaque équipement et suivi de l’état et des performances des serveurs de supervision) mais aussi documentaire (création de fichiers de référence des paramètres physiques des liens)
Biographie de l'auteur
Emilie Camisard travaille au GIP RENATER depuis 2004. Pendant cinq ans au sein de l’équipe « Services IP avancés et prospective », elle a participé à des activités de recherche et des projets d’étude sur les technologies optiques. De 2009 à 2018, elle a contribué à l’ingénierie et au déploiement des versions 5 et 6 du backbone DWDM de RENATER tout en étant la référente du projet REFIMEVE+ (Réseau Fibré Métrologique à Vocation Européenne) chez RENATER. En 2018, elle a intégré le pôle « Production des Services aux Utilisateurs » où elle suit l’exploitation des réseaux backbone et d’accès et en contrôle les performances. Moufida Feknous a obtenu son diplôme de doctorat en 2015 de l’université de Rennes. Ses travaux de recherche portent sur l’analyse, l’optimisation de l’agrégation dans les réseaux d’accès optiques de demain, la convergence des réseaux fixes et mobiles et la modélisation de trafic. Sa thèse de doctorat a été réalisée au sein du groupe Orange Labs et en collaboration avec l’IMT atlantique (Télécom Bretagne). Avant de rejoindre IMS NETWORKS fin 2015, elle a passé presque un an chez Bouygues télécom où elle était la référente technique des réseaux d’accès optiques. Elle a étudié les différentes architectures des réseaux d’accès optiques et elle a proposé des indicateurs de performance pour améliorer l’exploitation des réseaux d’accès optiques. Elle est actuellement Ingénieur de transport optique chez IMS NETWORKS, elle contribue à l’ingénierie, déploiement et l’exploitation des réseaux optiques DWDM.
124 - Stratégie de peering internet RENATER
Maxime Wisslé - Fréderic LouiRésumé
Le service Internet est aujourd’hui un service de commodité populaire pour l’ensemble de la communauté Enseignement Recherche. Afin de fournir ce service, par nature essentiel, RENATER opère une stratégie de « Peering » afin d’optimiser le coût de ce dernier. En effet, RENATER fournit à la communauté la connectivité vers le reste du monde et, pour ce faire, souscrit à des abonnements auprès d'opérateurs TELECOM de transit. Il sont au nombre de deux, un dans le sud de la France et un second dans le nord de la France. Ce choix technique a des avantages (résilience géographique et technique), mais aussi des inconvénients, notamment budgétaires. Car la tarification opérée par ces opérateurs est basée sur la consommation de bande passante. C’est pourquoi, ce modèle fait l’objet d’une étude constante qui vise à optimiser les flux (réduction de latence, augmentation de bande passante) mais également à diminuer le coût financier associé. Cela consiste typiquement à réaliser des accords de « peering » avec des entités (entreprises, opérateurs, …) en vue d’établir une connectivité directe vers les services proposés par ces entités plutôt que passer par un fournisseur tiers. Les « peerings » sont établis soit directement d'équipement à équipement entre deux entités ou bien via une architecture dédiée à l'échange de routes et de trafic entre plusieurs entités nommé « Global Internet eXchange (GIX) ». L’article présente les principes généraux liés à la stratégie de « peering » ainsi que la politique menée au sein de RENATER.
Biographie de l'auteur
Maxime Wisslé a obtenu son master réseaux informatiques et systèmes embarqués en 2018. Il a réalisé son stage de fin d’étude pendant 6 mois au sein de l’équipe « Programmes, Projets Transverses et Innovation (P2TI) » au GIP RENATER au cours desquels il a participé à une étude sur le concept des « White Box » En août 2018, il a rejoint l'équipe « Production des Services aux Utilisateurs » en tant qu'ingénieur réseau. Il contribue à l’exploitation des réseaux backbone et d’accès. Il continue également de travailler sur divers projets, parmi lesquels l’étude des « White Box » en corrélation avec GÉANT et l’étude de la stratégie internet sur la partie production.
127 - Pourquoi j'ai tué mon cuivre - mise en lumière de la FTTO dans l'ESR
Gabriel Moreau - Bernard Maire-amiot - David Gras - Hervé Colasuonno - Julien Bamberger - Aurélien Minet - Alain Péan - Marie DejeanRésumé
La FTTO signifie Fiber To The Office, en référence à la FTTH (Fiber To The Home) déployée en France chez les particuliers. Le principe de la FTTO est de câbler un bâtiment tout en fibre optique, d'éliminer au maximum tout câble en cuivre et de poser des micro-commutateurs dans chaque bureau (goulotte ou à côté), au plus près des machines. La connexion des utilisateurs s'effectue toujours avec leur jarretière cuivre RJ45 classique. Au travers de questions / réponses, nous mettrons en avant les raisons pour lesquelles la FFTO est une technologie maîtrisée et d'avenir. Durant ces six dernières années, plusieurs projets de bâtiments dans le périmètre de l'ESR ont choisi cette technologie, sont sortis ou vont sortir de terre. Selon le projet, différentes topologies, différentes technologies sont possibles. Quels sont les retours d'expériences après ces années ? Le résultat est-il conforme aux attentes ? Comment vit la solution au jour le jour ? Quelle sécurité, comment configurer et maintenir un large ensemble de commutateur, quelle haute disponibilité est possible ? Comment s'intègrent le Wi-Fi, la téléphonie sur IP ainsi que tous les équipements PoE ? La FTTO participe t-elle à l'éco-consommation ? Comment concrètement monter un appel d'offre FTTO pour un projet, quels sont les éléments essentiels à intégrer et quelles sont les erreurs à éviter à tout prix ? Et demain, quelle espérance de vie pour son infrastructure et quels débits envisageables ? Le groupe FTTO de RESINFO travaille à donner des réponses claires à l'ensemble de ces questions ainsi qu'à faire partager son expérience auprès de la communauté.
131 - Le contrôleur OpenFlow FAUCET
Marc Bruyere - David Delavennat - Brad Cowie - Josh BaileyRésumé
Force est de constater que, malgré la promesse du “Software Defined Networking” (SDN) avec OpenFlow, il ne semblait pas exister de véritable contrôleur déployable et exploitable sans un gros effort de programmation. Initié il y a un peu plus de dix ans par des chercheurs, le changement de paradigme induit par le SDN a bien été suivi par l’industrie avec OpenDayLight ou Open Networking Operating System. Mais ces derniers en dehors de n'être que des frameworks pour développer un contrôleur, n’ont que rarement pu être utilisés pour gérer des réseaux locaux de campus ou d’entreprise. FAUCET est un contrôleur OpenFlow compact et open source, qui permet aux administrateurs d'exploiter leurs réseaux de la même manière que les clusters de serveurs. Il est dédié pour les réseaux de campus et d'entreprise. Il n’y a qu’un seul et unique fichier au format YAML pour prendre en charge autant de commutateurs OpenFlow que nécessaire. Le déploiement de FAUCET ne nécessite aucun développement spécifique. Il possède toutes les fonctions nécessaires pour administrer les réseaux ainsi que les outils de visualisation adaptés. L’outil de tableau de bord Grafana est directement utilisable avec InfluxDB ou Prometheus. Plusieurs organisations utilisent FAUCET et l’université de Waikato à l’initiative de ce projet opère avec depuis plusieurs années une partie de son réseau utilisant du matériel provenant de quatre constructeurs différents. Cette présentation rappellera les fondements d’OpenFlow SDN, détaillera l’architecture de FAUCET, expliquera comment le déployer et enfin présentera des retours d'expériences.
Biographie de l'auteur
Marc BRUYERE a débuté sa carrière en 1996 chez Club-Internet.fr, puis chez Cisco, Vivendi Universal, Credit Suisse First Boston, Airbus/Dimension Data, Force10 Networks et Dell. Il a obtenu son doctorat au CNRS-LAAS, suivi d'un post-doctorat de deux ans à l'Université de Tokyo. Sa thèse porte sur l'Open Source OpenFlow SDN pour IXPs. Il a conçu et déployé le premier OpenFlow IXP européen pour le TouIX. Aujourd'hui, il est chercheur senior à l'Internet Initiative Japan Lab. David DELAVENNAT a d'abord travaillé pour Infoconseil/Infopoint puis Silicomp Réseaux avant de rejoindre le CNRS en 2003. Il travaille actuellement dans une Unité Mixte de Recherche INSMI - École polytechnique (Institut Polytechnique de Paris). Il y est expert en ingénierie des Systèmes d'Informations et s'intéresse à tous les sujets liés à la sécurité, la reproductibilité et à l'automatisation des infrastructures, du Datacenter à l'Application (Chiffrement, MFA, HPC, IaaS, PaaS, FaaS, SDN, SDS, GitOps, CI/CD, Micro-Services, Conteneurs, Ordonnanceurs...). Brad COWIE Brad est membre du groupe de recherche du réseau WAND de l'Université de Waikato. Il est également un membre clé du projet FAUCET. Fort de ses années d'expérience dans le déploiement de serveurs et des réseaux, il effectue des déploiements SDN dans le monde entier avec FAUCET. Josh BAILEY SDN et C64 software développeur et chercheur - https://www.vandervecken.com
136 - Les dessous de la virtualisation des fonctions réseau
Jérôme DurandRésumé
Les infrastructures réseau nécessitent la mise en œuvre de toujours plus de fonctions différentes : routage, firewall, IPS/IDS, proxy, optimisation, mesure de performance... Si les constructeurs proposent des logiciels toujours plus complets, on constate que les boitiers s'empilent dans les datacenters et les sites distants, ce qui engendre de la complexité, des coûts et une rigidité incompatible avec la flexibilité et la vitesse d'exécution attendue. Une option qui devient de plus en plus considérée est de virtualiser ces fonctions réseau. Au lieu de déployer de multiples boitiers, un serveur x86 sera installé (ou plusieurs si besoin de redondance) et les fonctions attendues seront virtualisées sur cette infrastructure. On parle alors de NFV - Network Function Virtualization. Quels sont les challenges liés à cette virtualisation ? Comment garantir les performances en environnement virtualisé ? Comment créer et déployer des fonctions réseau virtuelles ? Toutes ces questions seront adressées dans la présentation "Les dessous de la virtualisation des fonctions réseau".
Biographie de l'auteur
Jérôme a rejoint l'équipe R&D du GIP RENATER en 2002. Il a contribué à plusieurs projets sur IPv6. Il a notamment initié le déploiement du M6Bone, un réseau de test mondial pour le multicast IPv6. Il a également participé activement au projet 6Net, un réseau de test grandeur nature permettant de valider le fonctionnement en production du protocole IPv6. En 2006 Jérôme est devenu responsable des opérations de RENATER. Il a coordonné le déploiement de RENATER-5 et a apporté de nombreuses améliorations au réseau RENATER (convergence, gestion de la redondance, multicast...) En 2009, Jérôme est devenu responsable des services aux usagers de RENATER, et a ainsi contribué à ouvrir la voie à une offre globale de services sur RENATER, au-delà de la connectivité réseau. Jérôme a rejoint Cisco en 2011 comme expert sur les technologies de routage et de commutation. Il travaille avec ses clients et partenaires à l'élaborations de designs mettant en oeuvre des technologies réseau avancées: SDN, IPv6, multicast, BGP, MPLS... Il communique régulièrement sur les dernières avancées technologiques de Cisco sur son blog reseauxblog.cisco.fr ainsi que dans diverses conférences. Jerome contribue également à l'IETF: il est auteur du RFC 7454 - BGP Operations and Security et travaille sur d'autres propositions actuellement. Dernièrement Jérôme s'est très impliqué sur la programmation et l'automatisation des réseaux et notamment les solutions SD-WAN et SD-Access. Il est depuis 2018 leader technique en France sur les réseaux d’entreprise.
143 - Le nouveau réseau métropolitain Osiris pour l'E/R à Strasbourg
Sébastien Boggia - Jean Benoit - Cédric Freyermuth - Oumar Niane - Christophe PalanchéRésumé
Osiris est le réseau métropolitain Strasbourgeois de l'enseignement supérieur et de la recherche opéré par l'université de Strasbourg. Il raccorde 140 bâtiments répartis entre 17 établissements partenaires. Actuellement dans sa 3ème version, Osiris s'appuie sur une architecture classique de transport VLAN et de routage centralisé. Le déploiement d'Osiris 4, son successeur est prévu à partir de la fin de l'année 2019. Nous avons décidé d'y apporter une véritable rupture technologique en établissant une couche d'abstraction entre le réseau de transport (underlay) et les services (overlay). Les gains attendus sont, sur un coeur 100 Gb/s, d'accroître robustesse, performance et simplicité d'exploitation tout en proposant de nouveaux services. Notre démarche a consisté à étudier les différents produits et technologies du marché (MPLS, EVPN/VXLAN, LISP/VXLAN, SBP) avec des tests approfondis afin de trouver la solution la plus adaptée à nos besoins et nos contraintes techniques et financières. Après un choix technologique définitif, la prochaine étape du projet consiste à préparer les opérations de migration et les outils d’exploitation.
164 - perfSONAR : évolutions récentes et perspectives
Antoine DelvauxRésumé
perfSONAR, la boîte à outils de monitoring des performances réseaux multi-domaines, compte plus de 2000 déploiements publics de par le monde. Il continue à évoluer pour satisfaire les besoins des réseaux de l’éducation et de la recherche (RER). Depuis 2016 sa nouvelle architecture a en son cœur pScheduler, le coordonateur des mesures de performance. 2018 a apporté pSconfig qui orchestre de multiples instances de perfSONAR. 2019 apporte encore plus de flexibilité et de fiabilité dans la gestion des tâches et de nouveaux plugins permettant, notamment, de mesurer les performances de disque à disque. Le projet GÉANT, partenaire perfSONAR de la première heure, met son expertise au service des RER au travers de deux services. Le premier, nommé PMP (Performance Measurement Platform), déploie et gère une trentaine de nœuds répartis dans les différents réseaux partenaires de GÉANT. Ce service permet aux participants d’essayer, de leurs propres mains, perfSONAR et donne une vue éclairée des performances des différents liens d’accès à GÉANT. Le second, Consultancy & Expertise, propose une aide sur mesure pour définir et mettre en œuvre un ensemble de nœuds, un plan de mesure des performances ainsi que les tableaux de bord utiles pour suivre la performance des réseaux au quotidien. Les développements actuels et utilisations innovantes de perfSONAR seront présentés : 1. perfSONAR et les équipements réseau ; 2. Le monitoring des circuits virtuels (VPN/VRF/LNNS) ; 3. Les mesures de la latence et de la gigue pour le projet LoLa ; 4. La mesure des performances des services cloud ; 5. Les évolutions technologiques de l’architecture (backend et frontend).
Biographie de l'auteur
Antoine Delvaux a un diplôme d'Ingénieur Civil en Informatique de l'Université de Liège, Belgique (1999). Il est impliqué dans le projet perfSONAR depuis 2008. Il travaille pour PSNC (Poznań Supercomputing and Networking Center) et est le perfSONAR Service Manager du projet GÉANT. Il participe depuis plusieurs années à de nombreuses activités de monitoring des réseaux et des services sur le plan opérationnel ainsi que dans le développement logiciel pour plusieurs (N)REN (Belnet, Dante/GÉANT, PSNC, WACREN, International Networks @ Indiana University),
3 - ESUP-SGC, Système de Gestion de Cartes sur-mesure pour l'ESR.
Vincent Bonamy - David Lemaignent - Jean-pierre TranRésumé
ESUP-SGC est un Système de Gestion de Cartes multi-services libre (open-source) écrit pour et par le monde de l'ESR. Depuis 2 ans en production dans 9 établissements normands, ESUP-SGC gère au quotidien plus de 100 000 cartes autour du projet commun multi-établissements nommé « Léocarte ». Beaucoup plus qu'un simple système permettant d'éditer (imprimer et encoder) des cartes, ESUP-SGC est fortement intégré au Système d'Information de l’établissement, pour lequel il constitue un élément structurant. Le produit propose ainsi la possibilité de mise à jour synchrone du Système d'Information : annuaires LDAP (Supann), dispositifs de contrôles d'accès, services CROUS/IZLY, Carte Étudiante Européenne (ESC), système de gestion d'impression, prêts en bibliothèque, etc. Libre (licence Apache V2) et développé par le consortium EsupPortail au travers de l'Université de Rouen Normandie, les établissements ont toute latitude pour ajouter des fonctionnalités dans le code d'ESUP-SGC pour une adaptation encore plus spécifique à leur contexte d’usage. Doté d’un back-office web riche, moderne et réactif à destination des administrateurs et gestionnaires, ESUP-SGC propose également une vue web à tout utilisateur final: étudiant, personnel, invité … mais aussi extérieur (fédération d’identité RENATER). Cet article et cette présentation reviendront ainsi sur les motivations de ce développement, la couverture fonctionnelle et les aspects techniques qui font d'ESUP-SGC un SGC taillé sur mesure pour l'ESR, et de fait une solution crédible face aux logiciels propriétaires du marché !
Biographie de l'auteur
Vincent Bonamy est Ingénieur de Recherche dans le pôle Etudes et Développement de la DSI de l'Université de Rouen Normandie. Coordinateur et contributeur actif du consortium EsupPortail, il est responsable d'un certain nombre d'applications libres poussées par EsupPortail. Il est notamment l'auteur du logiciel libre EsupDematEC, utilisé par près de 50 établissements ; ce logiciel permet de dématérialiser la procédure de recrutements des Enseignants-Chercheurs et ATER. En 2017, aidé de 2 développeurs, David Lemaignent et Jean-Pierre Tran, il initie, développe et déploie un Système de Gestion de Cartes sans contact : Esup-SGC. Depuis, Esup-SGC est utilisé en production par les établissements normands et est disponible librement à tous depuis le site www.esup-portail.org
9 - Comment marche le fedivers ?
Stéphane BortzmeyerRésumé
Le « fédivers » (contraction de « fédération » et « univers ») est l'ensemble des réseaux sociaux décentralisés qui sont gérés indépendamment mais échangent des messages. C'est un des grands succès des deux dernières années, avec de nombreux logiciels largement utilisés, Mastodon, Pleroma, PeerTube, FunkWhale, WriteFreely, PixelFed, Mobilizon... Les réseaux sociaux décentralisés connaissent en ce moment un nouveau gain d'intérêt, motivé par les pratiques déplorables des GAFA, par exemple en matière de censure, ou de traitement des données personnelles. Comment fonctionne ce fédivers ? On lit souvent « il utilise ActivityPub ». Mais ActivityPub n'est qu'une petite partie des protocoles nécessaires pour faire tourner le fédivers. Il faut en fait toute une suite de protocoles, parfois très génériques (comme ActivityPub) et parfois mal spécifiés (le mécanisme d'authentification). Globalement, le fédivers est insuffisamment décrit et on manque encore de travaux de synthèse. Le développeur qui débute doit souvent lire le code source de ses prédécesseurs pour comprendre ce qu'il doit faire. On va expliquer comment fonctionne le fédivers sous le capot. On parlera donc d'ActivityPub, mais aussi du format ActivityStreams, du protocole Webfinger, du concept « Linked Data » et du format JSON-LD, des signatures HTTP, et de tout ce qui est nécessaire pour faire tourner le fédivers. Il s'agira d'un exposé centré sur le fonctionnement technique du fédivers (bien que son fonctionnement social soulève également de très nombreuses questions).
Biographie de l'auteur
L'auteur travaille à l'AFNIC, registre des noms de domaine en .fr. Il s'occupe de DNS, de normalisation technique, et de veille technologique (IA agile sur smart blockchain quantique). Il est l'auteur d'un livre sur les rapports de l'infrastructure de l'Internet avec la politique (« Cyberstructure », https://cyberstructure.fr) et d'un blog parlant de réseaux informatiques (https://www.bortzmeyer.org/).
21 - NextCloud : Offre de Cloud privé pour les 5000 personnels de l'Université Grenoble Alpes
Guenael SanchezRésumé
L'Université Grenoble Alpes constate l’utilisation grandissante des outils de stockage de données dans "le cloud" proposés par des sociétés privées et souvent américaines. Suite à la demande de certains chercheurs et personnels administratifs souhaitant bénéficier d’un tel outil hébergé et administré localement, une expérimentation sur l’outil OwnCloud a été lancé il y a 6 ans. Avec près de 400 utilisateurs pour environ 1 Téraoctet de données, nous avons souhaité passer à l’échelle supérieure : Offrir au 5000 personnels de l’Université un espace de stockage "cloud" répondant aux caractéristiques suivantes : * Données hébergées à l'UGA; * Quota suffisant pour faire "concurrence" aux outils privés; * Simplicité d’utilisation et d’accès; * Outils collaboratifs aboutis notamment face à la suite Google. Notre choix s’est porté sur les logiciels NextCloud & OnlyOffice, en offrant 50 Gigaoctets d’espace par utilisateur. Nous appuyant sur la plateforme de virtualisation grenobloise (WINTER) et sur l’hébergement de données grenoblois lui aussi (SUMMER), la solution se veut modulaire et "scalable" pour suivre l’évolution du nombre d’utilisateurs. Après un an de test auprès de 1200 utilisateurs pour environ 10 Téraoctets de données stockées, la solution est maintenant en production et répond bien aux différents besoins exprimés. D'un côté le chercheur souhaitant synchroniser ses données entre plusieurs postes, mais aussi le personnel administratif sur poste nomade souhaitant accéder et sauvegarder simplement ses données. Vous retrouverez nos choix d’architecture technique sur notre poster, ainsi que les différents cas d’usages.
22 - MyToutatice : Mettre du SelfData dans son ENT
Olivier Adam - Sophie Schaal - Yannick Bré - Thierry Joffredo - Annabel Bourdé - Albane GuihomatRésumé
Mais où sont mes données ? Les agents, élèves et parents disposent d’une offre de services numériques fournie par le ministère, l’académie, le lycée/collège et aussi les collectivités territoriales. Cette offre est fédérée dans un espace numérique de travail répondant au schéma directeur des ENT. Les utilisateurs réalisent leurs activités d’apprentissage et d’enseignement dans un nomadisme permanent : travail en établissement, dans les transports, à la maison, etc. Ils changent de classe, d’établissement, poursuivent leurs études. Différents équipements sont utilisés pour réaliser ces activités : ceux de l’établissement, ceux de la famille, les leurs... de nombreuses données sont dispersées... Par ailleurs, le RGPD introduit le principe de la portabilité des données personnelles. Les utilisateurs de l’ENT doivent pouvoir les récupérer lorsqu’ils quittent leur établissement, quelle que soit leur dispersion dans différents services : cahier de texte, notes, applications d’e-learning, ... Comment permettre aux utilisateurs de prendre le contrôle de leurs données selon le principe du SelfData ? L'académie a pour ambition de leur fournir un espace numérique strictement personnel connecté à l'ENT, compatible avec tout type de terminal, qui leur permette de collecter leurs contenus dispersés, de stocker leurs productions. Ainsi, les élèves pourront accéder à leurs données année après année, assurer la continuité de leurs parcours et, en quelque sorte confectionner leur portfolio. L’intégralité des contenus de cet espace numérique personnel sera récupérable par son propriétaire à tout moment. Nous vous présenterons le SelfData, et notre expérimentation qui s'appuie aujourd'hui sur la solution CozyCloud, une alternative française open source innovante et respectueuse de la vie privée.
Biographie de l'auteur
Olivier Adam, RSSI, DPD, Porteur projet ENT, Directeur Technique, Adjoint à la Directrice des Systèmes d’Information et de l’Innovation de l’académie de Rennes, Ambassadeur weber, dit "l’homme aux milles casquettes". Il est à l’initiative du projet national « Identité numérique et relation usager » IPANEMA. C’est dans ce cadre qu’il imagine l’expérimentation d’un cloud personnel Self Data sur lequel il collabore avec : * Thierry Joffredo, référent numérique éducatif, docteur en histoire des mathématiques, sa force de conviction communicative permet d’embarquer les utilisateurs les plus réticents * Yannick Bré, expert dans les usages numériques pédagogiques, ancien enseignant d’électronique, se déplace en trottinette pour être plus proche du terrain * Annabel Bourdé, experte technique en développement, un vrai sourire ambulant, « non official chief happiness officer » ! * Albane Guihomat, experte technique en développement, championne de lutte bretonne, vous êtes prévenus ! * Sophie Schaal, coordinatrice projets sur tous les fronts, en cours de clonage
28 - Gestion centralisée d'un réseau de sites sous wordpress
Norbert DeleutreRésumé
Dans le contexte de la prolifération des sites internet sous Wordpress : * comment assurer une gestion centralisée d'un parc de site ? * comment effectuer les mises à jour d'un réseau de sites en un clic ? * comment fournir des gabarits de site par défaut : pages personnelle, pages d'équipe, chercheurs, doctorants, administration ? Tout en garantissant un niveau de sécurité maximal, et une satisfaction optimale des utilisateurs ? Pour garantir ce niveau de satisfaction, et offrir un confort à l'ASR, il existe une solution méconnue et pertinente : La technologie multisite. Un réseau multisite est une collection de sites qui partagent tous la même installation de WordPress. Pour l'administrateur cela revient à mettre en oeuvre une seule installation de WordPress pour gérer un réseau de sites. Une seule interface pour tout administrer : utilisateurs - extensions - thèmes - mises à jours. L'administrateur du réseau sélectionne les extensions et thèmes qu'il rendra disponible aux utilisateurs du réseau. Ainsi les utilisateurs ne sont pas autorisés à télécharger eux même des extensions. Le pouvoir des utilisateurs est strictement limité à la création et à la mise à jour de contenu.
30 - Une avalanche de données aux pieds des Alpes - comment gérer une production et une analyse de données grandissante ?
Elodie Benoit - Benoit RousselleRésumé
Depuis 2009, l’ESRF a lancé un programme de modernisation. L’ESRF-EBS (phase 2 de ce programme) vise à concevoir et délivrer une source de lumière synchrotron extrêmement brillante et à construire un nouvel anneau de stockage au sein de la structure existante. Ce nouvel anneau produira des rayons X 100 fois plus lumineux. Dans ce contexte, les laboratoires de l'ESRF vont produire de grosses quantités de données à des vitesses de l'ordre 2 à 3 Go/s par thread. L'ESRF est déjà équipé de 2 systèmes spectrum scale (GPFS) de 4 Po chacun. Certains laboratoires voudraient générer jusqu’à 200 To de données par jour. Les expériences réalisées pouvant être destructives pour l’échantillon analysé, il est important de garantir un débit maximal d’accès au stockage aux utilisateurs pour toutes les expériences sous peine de perte de données. 40 expériences peuvent se dérouler en parallèle. Nous devons revoir la gestion des flux de données des expériences. Nous avons étudié ces possibilités : * L’analyse/réduction de données en ligne ; * Les systèmes de caches ou scratch ; * Répartir la charge sur plusieurs systèmes GPFS ; * Remise en cause d’un système GPFS et état de l’art des solutions de stockage du marché (Lustre, BeeGFS) ; * Étude des alternatives aux serveurs de calculs standard - architecture PowerPC et plateformes spécialisées dans le deep learning. Et si la solution à notre problématique consistait à mélanger toutes ces idées ? Nous détaillerons : * Nos idées ; * Nos maquettes ; * Nos tests et leurs résultats ; * Notre avancement dans le projet.
Biographie de l'auteur
Passionnée d'informatique et des sciences depuis son adolescence, Elodie a beaucoup tourné en rond. Après des débuts en tant que webdev, qu'elle essaye d'oublier en rejoignant le club des anciens webdev anonymes, Elodie s'est spécialisée dans l'administration des systèmes Linux puis du stockage depuis son entrée à l'ESRF. Maintenant, Elodie tourne avec les électrons. Quand elle ne travaille pas, elle pratique la plongée sous marine. Elodie n'est pas donc pas dépaysée quand une vague de données est générée à l'ESRF. Heureusement, Elodie et ses collègues sont là pour ne laisser aucune donnée tomber à l'eau. Dev-ops, open-source, nouvelles technos sont probablement les mots qui définissent le mieux Benoit. Après un peu de développement chez Atos, il est passé par Kelkoo et Yahoo afin d'être au top pour l'ESRF ! Comme tout bon geek qui se respecte, il bidouille son imprimante 3D, son drone de course ou son smartphone pendant ses heures perdues. Mais il est surtout content de retrouver ses collègues pour explorer le monde passionnant du Big Data au sein d'un site aussi exceptionnel que le Synchrotron. C'est éclairé par la lumière synchrotron que Benoit, Elodie ainsi que leurs collègues expérimentent et trouvent des solutions d'architecture. En effet, les spécificités des Synchrotrons ne leur rendent pas la tâche facile.
33 - Travailler en équipe avec Onlyoffice
Jérémy Maton - Geoffrey Bercker - Karl OulmiRésumé
Au Centre de Ressources Informatiques de l'Institut de Biologie de Lille (IBL), nous travaillons quotidiennement ensemble sur les mêmes projets. Beaucoup de documents, essentiellement bureautique, sont créés et ont besoin, de manière sécurisée, d’être partagés facilement afin d'éviter d'avoir plusieurs copies sur différents postes. De nombreuses solutions existent dont les partages de fichiers classiques. Ces solutions, efficaces et éprouvées restent malheureusement cloisonnées au réseau local de l’entité. Elles nécessitent souvent une configuration particulière sur les ordinateurs. Pour répondre à cette problématique, des solutions de collaboration documentaires en ligne existent, directement depuis un navigateur web. Parmi celles-ci, il y les géants du web, souvent des sociétés américaines, qui proposent hébergement et édition en ligne. Malheureusement, ces solutions engendrent d’autres problèmes : où sont hébergées nos données et quid de la confidentialité de celles-ci ? Nous avons choisi, à l’IBL, de nous libérer des contraintes techniques et des soucis de sécurités de nos données en mettant en place un outil bureautique en ligne auto hébergé et intégrable dans notre système d’information. Parmi les suites existantes connues (Collabora, Onlyoffice), nous avons choisi d'utiliser Onlyoffice car elle utilise le format de base OOXML. Cela permet de garantir la meilleure compatibilité avec les fichiers Microsoft Office que nous utilisons quotidiennement. Nous présenterons les avantages, les inconvénients ou limitations de l’outil bureautique collaboratif et de partage de documents Onlyoffice. Solution qui offre, en plus, la possibilité de gérer les projets des équipes tels que la répartition des tâches ou la gestion de projet (Ex : diagramme de Gantt).
Biographie de l'auteur
J'ai commencé ma carrière à Orléans en qualité de sous officier dans l'Armée de l'Air, en tant qu'Administrateur Systèmes et Réseaux spécialisé dans le déploiement de logiciels métiers sur des théâtres d'opération extérieures. En 2007, j'ai rejoins le CNRS tout d'abord dans un laboratoire de Chimie, l'Unité de Catalyse et Chimie du Solide, puis, en 2016 dans une Unité Mixte de Service de l'Institut de Biologie de Lille. Administrateur Systèmes et Réseaux, je conçois et met en œuvre l’évolution des ressources matérielles et logicielles de l’ensemble de l’infrastructure informatique. J’administre également les systèmes (principalement Linux mais aussi Windows et FreeBSD) et veille à la disponibilité et à la sécurité des services proposés.
39 - ezPAARSE-ezMESURE et les OpenBadges : mettre à profit les Open Badges pour favoriser le travail collaboratif et produire de meilleures analyses
Thomas Porquet - Dominique LechaudelRésumé
Les abonnements aux revues et ouvrages scientifiques sont très coûteux : les budgets pour permettre aux étudiants, aux enseignants et aux chercheurs d’y accéder s’élèvent à environ 100 millions d’euros par an pour l’ESR français. Les outils d’évaluation de leur usage sont stratégiques, autant pour la politique documentaire que budgétaire, et ces problématiques sont partagées par tous les établissements. Depuis 2013, le logiciel libre ezPAARSE permet à chaque établissement d’analyser les traces de passage des usagers vers ces ressources. Spécialisé dans l’identification des ressources consultées, ezPAARSE se nourrit d’un travail hautement collaboratif, qui a lieu sur la plateforme Analogist où la structure de chaque plateforme éditeur est décortiquée pour déterminer la sémantique des URLs. Ce travail (déclarer une nouvelle plateforme, ajouter une analyse, implémenter le parseur correspondant, etc.) est bien délimité et, depuis récemment, validé et récompensé par la remise d’Open Badges, standard sécurisé défini par la fondation Mozilla, un système de médailles virtuelles à exposer sur AnalogIST ou des réseaux sociaux comme LinkedIn, Twitter ou Facebook. De cette façon, nous valorisons et motivons la participation de collègues répartis dans un grand nombre d’établissements, qu’ils soient en France ou à l’étranger. Le dispositif est désormais complété par ezMESURE, l’entrepôt national de données. Basé sur la suite Elastic Search + Kibana il permet de visualiser sous forme de “facettes” et d'agrégations, les données chargées depuis les instances locales d'ezPAARSE. Cet environnement est proposé par un partenariat fructueux entre l’Inist-CNRS et le consortium Couperin.org Liens utiles : Page d'accueil : https://www.ezpaarse.org/ AnalogIST : http://analyses.ezpaarse.org/ ezMESURE : https://ezmesure.couperin.org/
Biographie de l'auteur
Thomas Porquet est chargé de mission au sein du département Services & Prospective du consortium Couperin.org depuis 2011. Il participe à la collecte et au traitement des statistiques d'utilisation dans le cadre de divers projets : - Mesure (basé sur le portail JUSP, où les rapports COUNTER des éditeurs sont récoltés et publiés) et le pilote CC-Plus, - ezPAARSE (pour permettre aux institutions de générer des statistiques d'utilisation basées sur leurs journaux) - ezMESURE (où les données ezPAARSE sont recueillies et où les membres de Couperin reçoivent un outil de tableau de bord avancé). Pour ezPAARSE et ezMESURE, Thomas est en charge de faire connaître et promouvoir les solutions proposées dans l’écosystème auprès des membres du consortium, mais aussi plus largement à l’international. Dominique Lechaudel travaille pour le Centre National de la Recherche Scientifique depuis 1994. Il est ingénieur spécialisé dans les projets informatiques innovants liés aux bibliothèques et aux ressources électroniques. Il est l'un des premiers à l'Inist à adopter la méthode agile, en particulier Scrum. En tant que Product Owner d'ezPAARSE et maintenant d'ezMESURE, et en collaboration avec le consortium Couperin.org, il mène la feuille de route et veille constamment à ce que ces solutions open source répondent aux besoins des utilisateurs.
41 - Retour sur le déploiement d’outils internes pour améliorer l’expérience utilisateur Zimbra
Yoann Mitaine - Benjamin Rocton - Loic Rochas - Pascal PralyRésumé
Depuis 2012, les Universités Grenobloise proposent une messagerie Zimbra commune pour l’ensemble du Personnel (14000 boîtes et 20 To de mails) pilotée par le système d'information. En plus des boites personnelles, des boites de service accessibles uniquement par des partages Zimbra sont également proposées. Très rapidement est apparu le besoin d’avoir un outil graphique pour piloter ces partages, Zimbra n'offrant pas nativement ce type d'interface. Une application s’appuyant sur le framework Cakephp ainsi que des API SOAP a donc été développé: Gepadbal. De plus afin d’apporter les fonctionnalités manquantes liées à ce type de boîtes (messages d’absence, filtres, affichage des quotas), nous avons développé nos propres Zimlets. Un autre besoin récurrent demandé par nos utilisateurs est de pouvoir archiver des mails. Or aucune solution d’archivage n'existe depuis le webmail. C’est donc fort de notre expérience autour des Zimlets que nous avons entrepris de proposer cette fonctionnalité. En plus de l'aspect JavaScript inhérent à toutes Zimlets côté webmail utilisateur, nous avons également dû utiliser la technologie Java Server Page pour le traitement de l'archive des mails en temps réel côté serveur. Nous ferons un retour sur tous ces outils que nous avons développés autour de Zimbra pour améliorer l’expérience utilisateur du Personnel. Nous expliquerons pourquoi nous avons dû développer ces outils, les technologies utilisées, les difficultés et parfois les mauvaises surprises rencontrées... Ce sera l'occasion de faire un bilan sur la pérennité de ces outils et le service de messagerie que nous offrons à nos utilisateurs.
Biographie de l'auteur
Les auteurs: Pascal Praly Responsable de l'équipe système DGD SI - Université Grenoble Alpes depuis 2016. Auparavant responsable pendant 10 ans de l'équipe Système et Réseau de l'Université Grenoble 2. Administration des systèmes de messagerie, serveurs Web, serveurs de stockage, annuaire LDAP/Active Directory. Yoann Mitaine Administrateur système DGD SI - Université Grenoble Alpes depuis 2016. A occupé des postes d'administrateur système et réseau dans l'Enseignement Supérieur depuis plus de 10 ans. Responsable technique de la plateforme Zimbra de l'UGA. Sa spécialité: Shibboleth. Benjamin Rocton Administrateur système DGD SI - Université Grenoble Alpes depuis 2016. Auparavant administrateur système et réseau à l'Université Grenoble 2. Administre différents systèmes comme les serveurs Ksup, Zimbra, Puppet, Oracle ... Sa dernière passion: Docker. Loic Rochas Administrateur système DGD SI - Université Grenoble Alpes depuis 2018 Auparavant alternant dans l'équipe système de la DGD SI. Travail sur la messagerie et les serveurs de supervision. Le papa de la Zimlet d'archivage.
42 - Science Ouverte : sauvegarder, visualiser et partager vos données
Régis Witz - Julia Sesé - Ana Schwartz - Stéphanie Cheviron - Vincent LucasRésumé
Le travail scientifique représente bien plus que des publications. En effet, les échecs et expérimentations non publiés constituent une réelle richesse de connaissances inexploitées. Ainsi, conserver et diffuser ces données de recherche permet d'étayer les succès, mémoriser les erreurs et révéler des idées encore inexplorées. Sauvegarder, référencer et exposer ces données est un gage de pérennité et de traçabilité, sur lequel se fonde la méthode scientifique basée sur la reproductibilité et la réutilisation des résultats. Dans le contexte de la science ouverte, l'Université de Strasbourg s'investit dans le développement de la plateforme POUNT, écosystème libre, modulaire et interopérable d’accès aux savoirs : * sauvegardez et versionnez vos données (documents, images, vidéos, modèles 3D) ; * structurez vos données en respectant les standards de votre discipline, et étendez ces standards avec vos métadonnées personnalisées ; * partagez vos données avec un identifiant unique, un modèle de citation, configurez les droits de lecture et de modification pour vos communautés ; * valorisez vos données et visualisez-les de manière fluide, enrichissez-les avec des informations contextuelles et des hyperliens. Cet article présente le socle technologique permettant d'implémenter ces fonctionnalités ainsi que l'infrastructure sous-jacente. Il détaille également la visualisation des données, basé sur l'exemple de modèles 3D. Enfin, il décrit l'ouverture à la communauté par le respect des standards et la distribution du code sous licence libre. La conclusion résume ces fonctionnalités et présente les améliorations envisagées comme la possibilité pour chacun de contribuer au projet ou de déployer sa propre instance de POUNT, capable de s'interconnecter entre-elles et avec diverses sources de données.
Biographie de l'auteur
Après plusieurs années à travailler dans le domaine des transports et de la banque, Régis Witz partage aujourd'hui son temps à l'Université de Strasbourg entre ses activités de soutien à la recherche et d'enseignement.
46 - NumaHOP plateforme de gestion des contenus numérisés
Olesea Dubois - Pauline Rivière - Fanny Mion-moutonRésumé
NumaHOP est un logiciel libre mis en oeuvre par la ComUE Université Sorbonne Paris Cité avec le soutien financier de la ville de Paris. Il a été développé sous la direction des établissements pilotes : la bibliothèque Sainte-Geneviève, la bibliothèque de Sciences Po Paris et la BULAC (bibliothèque universitaire des langues et civilisations). Il est librement réutilisable par tout établissement et son code source est en ligne sur GitHub. NumaHOP est un outil intégré qui permet de gérer une chaîne de numérisation de documents de l’import des notices et du constat d’état des documents physiques à la diffusion et à l’archivage grâce à un interfaçage largement automatisé entre les différentes étapes de la numérisation impliquant les acteurs concernés : ABES (Agence bibliographique de l'enseignement supérieur), prestataires de numérisation, bibliothèques, DSI, diffuseurs, CINES (Centre Informatique National de l'Enseignement Supérieur). Le bénéfice de cette réalisation est triple : - privilégier l’usage de formats normalisés ; - favoriser la standardisation des méthodes de travail ; - permettre la mutualisation des savoir-faire entre les établissements qui utilisent NumaHOP. NumaHOP est composé de plusieurs modules fonctionnels permettant : - de convertir des notices de différents formats de façon automatisée ; - de réaliser des constats d’état ; - d’échanger avec les prestataires (fichiers et données) ; - d’utiliser des fonctions de workflow, de statistiques et de gestion de projet ; - de réaliser le contrôle qualité des documents numérisés ; - d’exporter automatiquement les documents vers les bibliothèques numériques et les plateformes d’archivage ; - de produire des fichiers OCR, METS, images dérivées.
Biographie de l'auteur
Olesea Dubois Ancienne chargée des projets numériques dans le milieu hospitalier, elle occupe actuellement la fonction de manager opérationnel du service Numérisation et Archivage numérique à Sciences Po Paris, dans la Direction des ressources et de l’information scientifique. Elle a fait partie de l’équipe de numérisation de la bibliothèque Cujas, mais aussi géré le Pôle Groupements de commandes des ressources numériques à l’ABES (Agence bibliographique de l’enseignement supérieur). En outre, c'est une ancienne élève de l’Université de Caen Basse-Normandie (Master Pro Edition) et de l’Université d’Etat de Moldavie (Master Pro Recherche Ingénierie documentaire). Licenciée en catégorie A à la Fédération Française des Échecs et passionnée de parachutisme. Fanny Mion Mouton est responsable adjointe du pôle Flux et Données à la BULAC et responsable de l’équipe signalement et exposition des données. Archiviste paléographe de formation, elle a suivi la formation DCB avant de rejoindre la BULAC en juillet 2013. Dans le cadre de ses fonctions, elle participe à différents projets liés à l’informatique documentaire (SIGB Koha) ou la gestion de la numérisation. Pauline Rivière est chef de projet numérisation à la bibliothèque Sainte-Geneviève. Diplômée en ingénierie documentaire à l'Université Toulouse le Mirail, elle commence à travailler dans le monde des bibliothèques en tant que chargée des applications en informatique documentaire des bibliothèques municipales de la ville de Lille. Suite à la réussite du concours d'ingénieur d'études, elle rejoint la bibliothèque Sainte-Geneviève en 2012 où elle assure la coordination transversale des projets de numérisation de la bibliothèque et met en place les partenariats de la bibliothèque pour les projets de numérisation.
54 - Calcul haute performance et efficacité énergétique : focus sur OpenFOAM
Cyrille Bonamy - Laurent Lefèvre - Gabriel MoreauRésumé
Le calcul haute performance est de plus en plus utilisé au sein de la société. Auparavant réservé à une élite, basé sur des grandes infrastructures de calcul et stockage, c'est désormais une brique de base de bon nombre d'entreprises. En effet, le calcul haute performance permet de concevoir et d'optimiser de nombreux éléments pour un coût limité comparativement à la réalisation de prototypes ou d'essais in situ. Il est également fortement utilisé dans tout ce qui concerne le big data et l'intelligence artificielle. Il apparaît primordial de se poser la question de l'impact environnemental de ces pratiques numériques. Un certain nombre d'actions a déjà été initié dans cette communauté : GREEN500 ; label européen d'éco-responsabilité CoC pour les datacentres... mais ces actions considèrent généralement des situations et/ou des logiciels spécifiques voire idéalisés. La démarche de qualification d’un logiciel dans le domaine du calcul haute performance consiste à regarder la scalabilité du logiciel. L'originalité de cette étude est de se focaliser sur la scalabilité énergétique (temps de retour du calcul en fonction de la puissance consommée), en considérant plusieurs architectures (trois machines du TOP500 et un cluster de laboratoire). Le coût énergétique d'un calcul exemple a pu être estimé, il en ressort que la machine la plus efficace en termes de temps de calcul n'est pas forcément la plus efficace énergétiquement, que selon le nombre de coeurs/processus choisi, ce n'est pas toujours la même architecture la plus rentable énergétiquement. Il a ainsi été possible de mettre en évidence que plus l'utilisateur est prêt à attendre, moins le calcul coûte énergétiquement.
63 - RENATER, partenaire du projet CLONETS pour l’étude de la construction d’un réseau métrologique européen
Nicolas QuintinRésumé
Un bouleversement scientifique et technologique est en train de se produire dans la manière de distribuer des signaux de référence de fréquence et de temps. La mise au point de nouvelles techniques ces dernières années a permis d’utiliser la fibre optique comme support pour réaliser cette distribution, en démontrant des performances meilleures, de plusieurs ordres de grandeur, que les méthodes classiques par GNSS (GPS, Glonass...), ceci sur des distances allant jusqu’à des échelles continentales. CLONETS (CLOck NETwork Services) vise à préparer le transfert de cette nouvelle génération de technologie de distribution de temps et de fréquence à l’industrie. Ce sont ainsi 16 acteurs européens représentant l’ensemble des parties impliquées (des laboratoires métrologiques nationaux, des réseaux de télécommunication nationaux pour la recherche et l’éducation, ainsi que plusieurs entreprises) qui ont collaboré pour étudier les enjeux du déploiement d’un réseau paneuropéen métrologique basé sur des horloges atomiques et définir la meilleure stratégie pour l’implémenter. Ce réseau, en proposant des services de temps et de fréquence de très haute performance, sera à même de répondre aux besoins en croissance rapide créés par le Cloud Computing, l’Internet des objets, la distribution de l'énergie (smart-grid) et ouvre la voie pour le déploiement de nouvelles applications innovantes, comme l'avait fait le GPS en 2000 lors de son ouverture au grand public.
69 - État de l'art du WebRTC en 2019 et son utilisation au quotidien dans RENdez-vous un service de Visioconférence à l'échelle nationale
Damien FetisRésumé
Fin 2010 commence les réflexions sur le WebRTC, un protocole de communication temps réel dans le navigateur. Très rapidement, Google rend accessibles à tous les utilisateurs de son navigateur sa version du WebRTC. Une implémentation complète, performante et gratuite. Cette technologie est alors accessible à un grand nombre de développeurs et bon nombre de nouvelles solutions de visioconférence vont émerger. En 2015, RENATER propose RENdez-vous un nouveau service compatible WebRTC. Ce service à destination de l’ESR se base sur Jitsi-Meet un projet opensource de visioconférence. Neuf ans après le début des travaux sur la norme WebRTC, la version 1.0 des API navigateur n’est toujours pas finalisée. Les différentes RFC détaillants les protocoles utilisés par les solutions WebRTC sont toujours majoritairement à l’état de Draft. Le WebRTC est néanmoins aujourd’hui omniprésent dans tous les appareils et les solutions de visioconférence. Après quatre années d’exploitation de RENdez-vous, nous proposons notre retour d’expérience sur l’utilisation du WebRTC. Cette expérience nous permet de faire un point sur la situation réelle du WebRTC en 2019. Nous exposons en particulier comment les différentes évolutions de cette norme et de ses implémentations impactent le projet Jitsi-Meet et notre service. Jitsi-Meet offre une solution très complète avec une grande communauté de développeurs. Ce projet est très réactif aux différents changements du WebRTC dans les principaux navigateurs. Cependant, il présente une certaine complexité dans son architecture et ses évolutions. Nous proposons enfin, une réflexion sur ce que la prochaine version du WebRTC pourra impliquer sur l’évolution des services de visioconférence et sur RENdez-vous.
75 - UNCloud, de 0 à 10 000 utilisateurs en 1 an
Matthieu Le Corre - Arnaud AbélardRésumé
En 2017, l’Université de Nantes a lancé UNCloud un projet de service numérique devant faciliter les échanges et la collaboration entre les populations universitaires mais également avec les collaborateurs extérieurs. Plate-forme de stockage et outil collaboratif, proposant 100Go à ses 70 000 personnels et étudiants, UNCloud est devenu, avec 10 000 utilisateurs en quelques mois, une pierre angulaire de l’établissement. En première partie nous expliqueons en quoi la volonté politique a pu mener à la naissance et au succès du projet dans un contexte de défiance vis à vis des fournisseurs de service grand public et dans un cadre légal flou. Après avoir étudié diverses alternatives la solution open source Nextcloud est retenue. Nous étudierons la mise en place de cette solution, tant d’un point de vue technique qu’organisationnel. Une attention particulière sera portée sur la gestion de la phase de test, et sur son animation. Nous expliciterons les enjeux techniques nous ayant amené à concevoir une infrastructure entièrement redondée et expliquerons en détail sa mise en œuvre. Maintenant en production depuis bientôt deux ans, nous évoquerons la nouvelle phase qui s'amorce : transformer un service de partage de fichiers en un environnement numérique de travail complet en y intégrant les différents services collaboratifs existants à l’université tels que la messagerie, l’agenda, la plate-forme d’enseignement numérique, etc. Pour terminer nous reviendrons sur notre expérience et les enseignements que nous avons pu en tirer, notamment en matière d’accompagnement des usages, et d’optimisation technique.
80 - CONFERENCE ANNULEE - Les Systèmes Inéquitables Numériques (SIN)
Chantal Enguehard - Anaïs DanetRésumé
Le développement des applications numériques entraîne une multiplication des interactions numériques, d’ailleurs parfois imposées aux usagers. Malheureusement, ces applications sont susceptibles de dysfonctionner. Ce sont ces dysfonctionnements et plus particulièrement leurs conséquences que cette étude entend appréhender. Nos observations croisées de juriste et d’informaticienne nous ont amenées à mettre en lumière l’existence de Systèmes Inéquitables Numériques (SIN), dispositifs numériques intervenant dans une relation juridique entre deux sujets de droit et dont les traces pourraient être utilisées comme éléments de preuve de l’exécution ou de l’inexécution d’une obligation. La validation de titres numériques de transport en commun en est un exemple parmi d’autres. Ces systèmes numériques étant mis en place par une seule des deux parties à la relation juridique, un déséquilibre peut apparaître. En effet, lorsqu’un litige survient, seule cette partie a accès aux traces témoignant de l’(in)exécution des obligations juridiques. Pourtant, ces litiges restent majoritairement invisibles de la sphère juridique en raison de leur faible valeur pécuniaire, ce qui conduit à la mise en œuvre de processus extrajudiciaires de résolution amiable des litiges. Comment rétablir alors l’équilibre entre les parties ? Si l’égal accès aux traces numériques serait sans nul doute un progrès vers l’égalité des parties, la question se posera alors de la fiabilité de ces traces ainsi que d’un éventuel droit d’accès à ces données. Une meilleure solution ne résiderait-elle pas plutôt dans une anticipation des dysfonctionnements par les informaticiens à l’origine de ces systèmes ? Est-ce seulement possible ? Telles sont les questions auxquelles nous nous proposons de réfléchir dans cette contribution.
Biographie de l'auteur
Chantal Enguehard est maître de conférences en informatique à l'Université de Nantes et membre du LS2N (UMR CNRS 6004). Elle a obtenu au préalable un diplôme d'ingénieur de l'UTC (Université de Technologie de Compiègne) en Informatique en 1988 et a effectué sa thèse au CEA (Commissariat à l'Energie Atomique). Ses activités sont présentées sur la page http://pagesperso.ls2n.fr/~enguehard-c/ Anaïs Danet est professeure agrégée de droit privé et de sciences criminelles à l'Université de Reims-Champagne Ardenne et membre du CEJESCO (Centre d'Etudes juridiques sur l'efficacité des systèmes continentaux- EA 4693). Elle a effectué sa thèse à l'Université de Bordeaux sur le thème de "La présence en droit processuel", soutenue en 2016. Elle s'intéresse ainsi à la justice sous ses différentes facettes (modes juridictionnels et amiables de résolution des litiges, procédure civile et pénale).
94 - "Elapsed Time" : encore pertinent pour la facturation ?
Emmanuel QuemenerRésumé
"Elapsed Time" reste-t-il un critère pertinent de refacturation ? Retour sur quelques années de métrologie... "Une accumulation de temps écoulés n'est pas plus une consommation de ressources qu'un tas de pierres n'est une maison !" Dans nos centres de ressources, l'essentiel de la métrologie (et de la facturation) repose souvent sur le "temps écoulé", parfois le "temps utilisateur". L'arrivée de traitements de données massives, issus notamment de communautés de biologie, dessine désormais un nouveau paradigme : le principal "stress" de nos infrastructures ne repose plus uniquement sur la sollicitation des unités de traitement mais dans le transport des données, tous les transports. Nous verrons, au travers d'une fouille menée sur des fichiers de métrologie couvrant plusieurs années d'exploitation et issus du Centre Blaise Pascal (hôtel à projets et centre d'essais) et du PSMN (mésocentre de calcul) de l'ENS-Lyon, qu'il convient de prendre en compte désormais d'autres métriques pour évaluer au mieux ces nouveaux usages, et donc permettre une meilleure reventilation de leurs coûts.
103 - Déploiement du cahier de laboratoire électronique à l’INSERM et nouvelles perspectives
Paul Guy Dupre - Claudia Gallina-mullerRésumé
Le DSI de l’Inserm s’intéresse, depuis 2013, aux solutions de cahiers de laboratoire électroniques (ELN, Electronic Laboratory Notebook). La phase d’expérimentation a été présentée aux JRES 2017. Nous avions alors proposé une définition de l’ELN et expliqué les enjeux. La solution sert à décrire et documenter toute la phase confidentielle de réalisation d’un projet de recherche. Certains enjeux perdurent, le cahier de laboratoire doit répondre aux obligations légales et contractuelles, notamment en apportant la preuve de l’invention et de ses inventeurs. Les apports du numérique sont multiples. L’ELN améliore la traçabilité des recherches, la lutte contre la fraude et la gestion des données. Il facilite les démarches qualité et le dépôt des brevets. Il peut apporter de nouvelles fonctionnalités, telles que le travail collaboratif, l’accès distant, la gestion des projets, la gestion documentaire et le contrôle d’accès. CLÉ, le Cahier de Laboratoire Électronique de l’Inserm, propose depuis 2018 une solution dédiée à la biologie, prenant également en charge la gestion des inventaires et des équipements. Nous détaillerons les aspects appels d’offres, architecture, et conduite du changement de ce projet. L’ELN se retrouve en position centrale dans le SI du laboratoire. Il peut apporter des solutions pour répondre aux enjeux du moment, améliorer la gestion de la donnée et la reproductibilité des expériences. CLÉ peut également s’interfacer avec des bases de données du laboratoire et à notre catalogue de service (bibliographie, gestion financière, feuille de temps, gestion des risques, agendas, stockage des données brutes, GED). En conclusion, nous évoquerons les possibilités d’interfaçage avec des outils de traitement des données de recherche.
106 - Distribution EOLE
Luc BourdotRésumé
EOLE Linux est l'association d'une distribution GNU/Linux (Ubuntu, en l'occurrence) avec des outils spécifiques d'intégration et d'administration issus de développement réalisé par le pôle de compétence Logiciels Libres du Ministère de l’Éducation nationale. Actuellement, il y a environ 25 000 serveurs EOLE déployés principalement dans les établissements scolaires, les rectorats, les collectivités locales, mais aussi, sous l'impulsion du ministère de l'Écologie, dans les directions départementales des territoires (DDT). Les solutions EOLE figurent dans le socle interministériel des logiciels libres (SILL). Depuis 17 ans, EOLE accompagne les grands projets numériques du Ministère de l’Éducation. L'utilisation des logiciels libres, évolutifs et adaptables, la gouvernance agile au plus près des besoins utilisateurs, tout cela a permis de suivre les nouveaux usages numériques sans rupture technologique et à moindre coût. EOLE répond aux objectifs suivants : - respect des contraintes légales (Propriété intellectuelle, droit des personnes ...) ; - réalisation modulaire, donc évolutive et ouverte sur les standards du marché ; - facilité de mise en œuvre et déploiement industrialisé ; - administration à distance. La distribution EOLE est organisée en modules. Un Module est un ensemble cohérent de logiciels sélectionnés destiné à répondre à un besoin métier précis, comme par exemple un pare-feu. Grâce à nos solutions, vous pouvez déployer simplement et rapidement une infrastructure intégrée et sécurisée avec des services tels que SAMBA4, Apache, Nginx, MariaDB, StrongSwan, E2guardian, EoleSSO ... La gestion de votre parc à l'aide de notre module Zéphir, vous offre une centralisation de l'ensemble de vos configurations, de l'orchestration et de la surveillance des services.
118 - Pod : plateforme de podcast
Nicolas Can - Florent FareneauRésumé
Créé en 2014, le projet POD est depuis septembre 2015 piloté par le consortium Esup Portail et soutenu par le Ministère de l'Enseignement Supérieur, de la Recherche et de l'Innovation. Le projet et la plateforme éponyme sont orientés vers les usagers de nos établissements en permettant la publication de vidéos dans les domaines de la recherche (valorisation de plateformes, …), la formation (tutoriels, formation à distance, rendu étudiants …), la vie institutionnelle (vidéo d‘événements) proposant ainsi plusieurs jours de contenu. L’intérêt pour POD continue de croître à l'aide une dizaine d’établissements contributeurs et d'une trentaine d'instances déployées au sein de la communauté ESR et dans d'autres structures comme des ESPE (Bretagne) ou des académies (Caen). Forts de l'engouement et de l’intérêt pour le projet POD et avec le soutien du consortium Esup, nous avons lancé en 2018 le développement de la version 2, sortie en septembre 2018. Actuellement en version 2.1, l’interface permet le dépôt de vidéo par l’utilisateur, d’ajouter des contributeurs, d'associer documents et licences d'usages, de l’enrichir (superpositions, sous-titres, légendes) et de les proposer avec des flux adaptés et de nouveaux types de contenus (vidéos360°). En plus des fonctionnalités déjà offertes comme le chapitrage ou la diffusion en directe, nous continuons son évolution : transcription automatique de vidéo, prise de note synchronisée et partagée. Nous vous proposons de présenter les fonctionnalités de l'outil, la gestion communautaire du projet et sa maintenance avant d'aborder son architecture, ses déploiements ou son développement et sa documentation en se basant sur des cas d'usages à l'Université de Lille et de l'Université Polytechnique Haut-de-France.
Biographie de l'auteur
Nicolas Can est responsable de l'équipe web au sein de la direction des systèmes d'information de l'université de Lille depuis septembre 2018. Florent Fareneau est directeur adjoint délégué aux systèmes d'informations au sein de la direction des systèmes d'informations de l'université polytechnique Hauts-de-France depuis janvier 2018. Ingénieur d'étude en développement et déploiement d'application depuis 2008, Nicolas a commencé sa carrière dans le public à l'université de Pau avant de rejoindre le service enseignement et multimédia de l'université Lille 1 en 2011. Nicolas a occupé dès lors plusieurs fonctions comme administrateur technique de Moodle, développeur en détachement auprès de France Université Numérique, expert au sein du groupe de travail Agimus du consortium Esup ou encore enseignant vacataire. En 2003, Florent a rejoint la communauté naissante Esup-portail en qualité d'expert infrastructure. Ensuite, il a intégré la coordination technique de ce consortium en qualité de représentant de l'UPHF en 2005. En 2015, Nicolas a rejoint la direction des systèmes d'information de l'université Lille 1 pour occuper le poste de responsable informatique du learning center "Lilliad" qui a ouvert en septembre 2016. Florent participe activement à la vie de la communauté Esup. En particulier, il a pris en charge l'animation du groupe de travail socle de l'ENT en 2016 et participe aux différents projets ESUP-portail: indicateurs, authentification, infrastructure, OAE, gestion de vidéo ... Ainsi, tout début 2015, c'est tout naturellement qu'il a œuvré à la mise en place, dans son établissement, de l'une des toutes premières instances de Pod au niveau national et dès lors n'a cessé d'accompagner ces évolutions. C'est en 2013 que Nicolas a commencé le développement de l'application Pod. Mise en place en avril 2014 à l'université Lille 1, cette application est gérée depuis septembre 2015 par le consortium Esup. Nicolas a, par la même occasion, intégré la coordination technique d'Esup pour devenir développeur/coordinateur du projet et responsable de l'atelier gestion de vidéos, fonctions qu'il occupe encore actuellement.
119 - Drive RENATER
Alexandre SalvatRésumé
Au cours de la dernière décennie, divers acteurs de l’Internet multiplient les offres de stockage de données dans le cloud avec, dans certains cas, des fonctionnalités complémentaires. Cependant, l’équilibre du modèle économique est souvent assuré d’une part par un usage qui devient payant dans le temps ou en fonction de l’utilisation et, d’autre part, par l’exploitation qui peut être faite des données et métadonnées. Pour répondre à ces problématiques, de nombreux établissements ont implémentés leur propre solution, constituant ainsi un riche écosystème fonctionnel et applicatif. Cependant, plusieurs problématiques demeurent : * Comment des utilisateurs de plateformes communautaires différentes peuvent-ils échanger des données de façon authentifiée et en toute confiance ? * Quel type d’architecture pour répondre aux besoins de plusieurs centaines de milliers d’utilisateurs ? * Quels mécanismes pour permettre la distribution géographique ce type de service ? * Comment garantir les niveaux minimaux de sécurité, en particulier sur le contrôle d’accès au service et aux informations stockées ? A la suite de l’évaluation de plusieurs solutions libres susceptibles de fournir un service de type « drive », le GIP RENATER a entamé une démarche de construction d’une solution fortement évolutive en terme de contrôle d’accès, de capacités (utilisateurs, volumes, …), de déploiement distribué et qui soit possiblement interopérable avec d’autres services similaires de la communauté. Les défis de mise en œuvre sont multiples et concernent tout autant le choix de la solution que la conception de l’architecture technique associée ainsi que la prise en compte des évolutions et l’organisation du MCO.
133 - Migration de la messagerie de l'Université de Strasbourg vers une solution mutualisée d'outils collaboratifs
Xavier Pierre - Sébastien Finkbeiner - Laurence Moindrot - Simon Piquard - Patrick HoffmannRésumé
Dans le cadre de l'évolution permanente du numérique, mais également de l'utilisation quotidienne des outils informatiques, il semble important de mettre en oeuvre une utilisation personnalisée de chaque service fourni aux utilisateurs. Pour tenir compte des attentes et des besoins des utilisateurs, plusieurs axes d'évolution des outils du numériques sont au coeur de l'ensemble de la stratégie d'information de l'Université de Strasbourg. Parmi ces outils, la messagerie est aujourd'hui l'une des applications les plus connues, et également les plus utilisées. Plus que la messagerie, il nous est aujourd'hui demandé de fournir un ensemble d'outils collaboratifs autour de celle-ci. Dans ce contexte de rester dans une dynamique d'adaptation aux besoins, nous avons fait évoluer le projet de renouvellement de messagerie vers la mise en place d'une suite collaborative pleinement intégrée avec notre système d'information. En 2009, l'Université de Strasbourg a fait le choix de déployer la solution SOGo comme service de messagerie/agenda à l'ensemble de ses utilisateurs et partenaires Osiris. SOGo, depuis quelques années, ne répondait plus du tout aux attentes de nos utilisateurs, notamment par le fait que ce soit un "simple" outil de messagerie/agenda. En plus des aspects fonctionnels qui étaient source de mécontentement auprès des utilisateurs, l'étude a également porté sur le choix de l'hébergement : auto-hébergement, cloud, SAAS, Tierce Maintenance Applicative ? En 2019 l'Université a fait le choix de migrer sa messagerie vers la solution Partage de Renater qui répondait aux différentes attentes. Le but de la présentation n'est pas de présenter Partage, mais de présenter le choix d'un outil mutualisé aux seins de notre communauté.
Biographie de l'auteur
===== Xavier PIERRE ===== Mes débuts dans la vie active se sont faits dans le monde du traiteur. J'ai ensuite décidé de reprendre les études afin de faire de ma passion pour l'informatique ma nouvelle activité. Pour cela j'ai privilégié l'alternance en passant par un BAC, un BTS puis une licence. Ces années d'études et d'alternance m'ont permis d'acquérir des compétences techniques et relationnelles. J'ai eu la chance d'être recruté comme responsable du domaine de messagerie à la direction du numérique de l'Université de Strasbourg (2017). Direction du numérique au sein de laquelle j'évolue en tant que responsable de domaine (messagerie), administrateur d'applications collaboratives (Seafile, Request Tracker, Itop, Sympa, etc.). En tant que chef de projet technique, j'ai mené le projet de remplacement de l’anti-spam de l'université, puis le renouvellement de la messagerie en passant de SOGo à PARTAGE. J'ai également eu l'opportunité d'enseigner en licences math/info ce qui a été très enrichissant. Tous ces éléments confirment mon intérêt quotidien pour le domaine de l'informatique et m’incitent à toujours m'améliorer afin de mettre mes compétences au service des autres. ########################################################## ===== Simon Piquard ===== "Si j'étais né il y a 2000 ans, je serais né à Rome" Il l'énonce et tout s'éclaire, nous comprenons immédiatement que Simon est originaire de Nancy en Meurthe-et-Moselle, ville lumière, centre du monde moderne. Côté étude, c'est pas Byzance comme dirait l'autre. Il obtient à la surprise générale un baccalauréat ES, puis, en 2005, malgré le scepticisme ambiant, un BTS Action Commerciale en contrat de qualification. Tour à tour manager dans un centre de profit, responsable d'un service traiteur, attaché-commercial, il erre ensuite dans des jobs qui ne l'intéressent guère, déménage 3 fois en 3 ans pour au final s'installer dans la charmante et pétillante capitale alsacienne, Strasbourg. Peu de temps après son arrivée il intègre l'Université de Strasbourg naissante (2009), en tant que coordinateur pour le déploiement de la nouvelle carte étudiante et professionnelle "Mon Pass Campus Alsace". Il est content, les chefs aussi, il reste. 10 années plus tard, il a accumulé quelques casseroles, et surtout beaucoup d'expériences en tant que chef de projet MOA (Pass Campus Alsace, Copieurs MFP en libre service, PGI scolarité Alisée, box/cloud unistra Seafile, Partage unistra, Contrôle d'accès Physique dans les bâtiments), correspondant communication, formateur et responsable conduite du changement (Windows 10, Ernest). Il vient à vous aujourd'hui humblement, pour vous parler conduite du changement, usages & approche utilisateurs sur les récents projets Ernest ("Mise en place d'un nouvel environnement de travail social et collaboratif : Une approche centrée utilisateur"), Partage ("Migration de la messagerie de l'Université de Strasbourg vers une solution mutualisée d'outils collaboratifs") et outils de stockage (poster "Quelle solution de stockage choisir dans la prochaine décennie ?"). Avé
134 - Déploiement de la plateforme de traitement des données phénotypage haut débit 4P sur l’infrastructure France Grilles.
Vincent Nègre - Eric David - Marie Weiss - Philippe Burger - Romain Chapuis - Boris Adam - Anne Tireau - Patrick Moreau - Antony Tong - Gallian Colombeau - Samuel Thomas - Pascal Neveu - Jérôme Pansanel - Frédéric BaretRésumé
Le projet PHENOME-EMPHASIS [1], associant l’INRA, Arvalis et Terres-Inovia ambitionne de développer des infrastructures de phénotypage haut-débit au niveau national. Les systèmes d’acquisitions au champ (drone, phenomobile) embarquent différents capteurs (caméras haute résolution RGB, multispectrales et infra-rouge thermique, LIDARs) qui génèrent un volume important d’images qu’il convient de traiter, stocker et archiver. Les modules de traitement prototypes créés par l’UMT CAPTE [2] ont été industrialisés et intégrés dans la plateforme de traitement des données 4P (Plant Phenotyping Processing Platform). Ces modules encapsulés dans des containeurs Docker peuvant être enchaînés dans des workflows s’appuyant sur le moteur de traitements Cromwell. Docker Swarm permet de distribuer l’exécution des conteneurs sur un cluster. Les données brutes et les traitements sont stockés sur une architecture distribuée basée sur la technologie iRODS. La plateforme 4P est connectée au système d’information PHIS [3] ayant pour objectif de stocker et d’organiser les données produites dans le cadre du projet PHENOME-EMPHASIS selon les principes FAIR. La plateforme 4P est pleinement intégrée à l’infrastructure France Grilles [4], une infrastructure mutualisée pour le calcul et le stockage de données scientifiques qui fournit différents services aux utilisateurs. Pour le déploiement de la plateforme 4P nous nous sommes appuyés sur le service FG-CLOUD pour la partie applicative et sur le service FG-IRODS pour la partie stockage persistant des données. Le poster détaillera les fonctionnalités offertes par la plateforme 4P, les technologies utilisées, l’infrastructure technique en particulier l’intégration avec PHIS et France Grilles. [1] https://www.phenome-emphasis.fr/ [2] https://www6.paca.inra.fr/emmah/Programme-scientifique-et-Equipes/Equipe-CAPTE [3] http://www.phis.inra.fr [4] http://www.france-grilles.fr
144 - Le cloud collaboratif
Camille HerryRésumé
La notion de travail collaboratif n’est pas nouvelle mais elle a pris, ces dernières années, une nouvelle dimension avec l’usage intensif d’outils informatiques et l’utilisation d’Internet qui offre de nouvelles perspectives sur l’organisation du travail et sur la mise en œuvre de projets. Les personnels de l’université de Lorraine ont un besoin grandissant de collaboration en interne, mais également avec des personnes extérieures, collègues d’autres universités ou partenaires. Pour répondre à ces nouveaux besoins, l’université de Lorraine a mis en place un environnement de travail collaboratif, s’appuyant sur un service de synchronisation et de partage de fichiers basé sur la solution Nextcloud, complété d’une suite bureautique en ligne open-source Onlyoffice. Ma présentation s’articulera autour de ces différents outils : * l’infrastructure mise en place pour garantir une haute-disponibilité * l'installation et l'administration courante. * Le choix des technologies (Nextcloud / Onlyoffice) et un retour d'expérience après une année d'utilisation
Biographie de l'auteur
Assistant Ingénieur à l’université de Lorraine (UL), Camille HERRY travaille à la direction du numérique, sous direction infrastructure et services. Administrateur Système et Réseaux, il travaille depuis Octobre 2018, dans l'équipe Intégration et Virtualisation en charge de : - Service d’annuaire (LDAP) - Services centraux d’authentification (CAS, Shibboleth, radius …) - Service de messagerie - Infrastructures d’hébergement réparties dans trois salles serveurs Auparavant, il était responsable d'une équipe informatique sur le campus ARTEM à Nancy, rattaché à la direction du numérique, sous direction service aux usagers. il était également administrateur de l'Active Directory de l'établissement parmi une dizaine d'informaticien.
154 - IFB-Biosphère, Services Cloud pour l'Analyse des Données des Sciences de la Vie
Christophe Blanchet - Olivier Collin - Matéo Boudet - Stéphane Delmotte - Hervé Gilquin - Jean-françois Guillaume - Efflam Lemaillet - Jonathan Lorenzo - Olivier Sallou - Bruno Spataro - Jérôme PansanelRésumé
L'Institut Français de Bioinformatique (IFB) propose différents services pour le traitement des données des sciences de la vie, en partie basés sur une fédération de clouds académiques. Le portail Biosphère (https://biosphere.france-bioinformatique.fr) fournit plusieurs interfaces pour simplifier l’usage du cloud de l’IFB : le catalogue RAINBio des environnements modèles (appliances), un tableau de bord pour gérer les déploiements et un registre des données publiques disponibles. La fédération IFB-Biosphère, initiée fin 2016, comporte 5 200 cœurs et 26 téraoctets de mémoire, répartis entre 5 sites basés sur Openstack, fédérés avec le système Nuvla. En plus des composants de base, d'autres plus spécifiques comme Manila pour la fourniture de volumes partagés en mode fichier, sont requis pour la majorité des applications bioinformatiques. La gestion des utilisateurs repose sur les identifiants institutionnels de la fédération d’identités eduGAIN, avec un proxy ‘keycloack’ et des clients OpenID Connect. Les appliances bioinformatiques proposent de nombreux outils courants pour l’analyse de données biologiques, 32 sont actuellement publiées dans le catalogue RAINBio. Ces environnements fournissent des outils comme ‘conda’, ‘docker’ ou ‘ansible’; des interfaces scientifiques de haut-niveau (portails web Rstudio ou Jupyter Notebook), ou un bureau graphique à distance. Certains environnements comprennent plusieurs composants reposant sur autant de machines virtuelles ou conteneurs. Le quota de base, extensible, permet de déployer des VMs, avec jusqu’à 128 cœurs et 3 To de RAM. Le cloud IFB-Biosphère est utilisé pour des analyses scientifiques pouvant être intensives (4 000 cœurs), et par de nombreuses sessions de formation, écoles scientifiques, cursus de masters universitaires, workshops ou hackathons.
Biographie de l'auteur
Christophe Blanchet est membre du Centre National de la Recherche Scientifique (CNRS), avec vingt ans d’expérience en bioinformatique et calcul scientifique pour les sciences de la vie. Actuellement en poste à l’Institut Français de Bioinformatique (IFB, CNRS UMS3601), il s'est impliqué depuis 2001 dans de nombreux projets et infrastructures relatifs au calcul distribué pour la biologie (EDG, EGEE, EMBRACE, STRATUSLAB, CYCLONE, ELIXIR...). Depuis 2014, il co-anime avec Olivier Collin (CNRS, resp. de la plateforme GenOuest) un groupe de travail national sur les infrastructures bioinformatiques et l'utilisation des infrastructures cloud pour la biologie. Groupe de travail auquel les auteurs de la présentation à JRES 2019 participent activement, pour la plupart depuis sa création. Cette collaboration entre ces experts des systèmes, du cloud et de la bioinformatique, a conduit à la mise en place dès 2016 de IFB-Biosphère, fédération nationale de clouds pour le traitement des données des sciences de la vie, regroupant six sites de l'IFB, plateformes bioinformatiques propres de l'IFB ou en collaboration avec des mésocentres.
168 - Deep Learning : Je t'aime moi non plus..
Parouty Jean-lucRésumé
Reproduire ou simuler « l’intelligence » est un objectif qui nous anime depuis longtemps et dont les premiers travaux scientifiques sont mêmes antérieurs aux ordinateurs. Longuement occultées, les techniques d'apprentissage automatique (machine learning) et plus particulièrement l’apprentissage profond (deep learning), basées sur les réseaux de neurones, ont fait des progrès exceptionnels ces dernières années. Portées par les grands acteurs de l’Internet, ces technologies sont devenues incontournables dans la révolution du « big data ». En faisant le lien entre l’expérimental et la modélisation et en ouvrant de nouvelles voies dans la méthode scientifique, ces technologies ont un potentiel considérable dans la plupart de nos domaines scientifiques. L’objectif de cette présentation est d’apporter des éléments de compréhension simples et synthétiques sur ce qu’est le « deep learning », ses principes et ses usages. Nous aborderons cette présentation comme un triptyque : * Le premier volet contera l’épopée tumultueuse et incertaine de ces neurones artificiels, de 1940 à nos jours, * Nous explorerons ensuite les différentes architectures et leurs usages possibles, en nous appuyant sur de courtes démonstrations, * Nous terminerons, probablement en retard, sur les offres de services et les perspectives à venir, notamment vis à vis de nos infrastructures et métiers. L’ensemble de la présentation sera accessible à nos intelligences naturelles 3.0 et+
Biographie de l'auteur
Jean-Luc Parouty est chargé de mission « Appui au calcul scientifique » au sein du laboratoire SIMaP (Science et Ingénierie des Matériaux et Procédés) à Grenoble. A ce titre il accompagne le laboratoire dans la coordination et le pilotage des activités scientifiques numériques en apportant une expertise dans la mise en œuvre des moyens techniques et méthodologiques et en renforçant la synergie entre les activités de calcul et expérimentales. Cette expertise concerne en particulier l'intelligence artificielle. SIMaP est associé à l'institut d'intelligence artificielle MIAI (Multidisciplinary Institute in Artificial intelligence) par le biais d'une chaire commune avec le LIG (Laboratoire d'Informatique de Grenoble). Précédentes contributions aux JRES : Technologie blockchain : Ange et/ou démon, pourquoi Bitcoin est-il incontournable ? (2015) Internet et usages : Google m’a tuer (2011)
169 - APRIL : promouvoir et défendre le logiciel libre
Nicolas Gonzalez170 - COAGUL : Association Générale des Utilisateurs de Logiciels libres en Côte-d'Or
Gérald Schwartzmann171 - ADULLACT : Association des Développeurs et des Utilisateurs de Logiciels Libres pour les Administrations et les Collectivités Territoriales
Laetitia Boyer214 - OpenNebula : l’informatique élastique 100% Open Source
Daniel DehenninRésumé
Au ministère de l’Éducation nationale et de la jeunesse il existe depuis 2001 un pôle de compétences Logiciels Libres qui construit des solutions pour les établissements scolaires. En quête constante d’améliorations pour le développement de la distribution GNU/Linux EOLE, nous avons découvert en 2012 une galaxie qui nous était jusqu’alors inconnue. Vous êtes le préposé à l’infrastructure d’une équipe de 2 personnes, vous manquez déjà de temps et vous souhaitez bénéficier des avantages de la virtualisation ? Vous faites partie d’une équipe de 50 personnes qui gèrent l’infrastructure pour 10 000 personnes ? Nous vous proposons un voyage au travers de notre expérience et des retours de la communauté pour découvrir le système de gestion d’infrastructure virtualisée OpenNebula.
Biographie de l'auteur
Libriste depuis la découverte des ordinateurs à l’université, j’ai cherché un travail sans compromission avec mes valeurs. Après avoir passé 8 ans a déployer et maintenir en production la distribution GNU/Linux EOLE dans l’académie de Caen, j’ai intégré en 2011 l’équipe de développement basée à Dijon afin de parfaire mes connaissances œnologiques.
16 - Active Directory en milieu universitaire : une approche par la sécurité
Emmanuel Mesnard - Xavier GirardinRésumé
L’utilisation des annuaires Active Directory se généralise dans les sociétés et organismes publics tels que les ESR. A l'Université de Reims Champagne-Ardenne, chaque composante utilisait jusqu’à présent son propre système d’authentification, sans relation avec le système d'information central. Cela ne permettait pas d’obtenir simplement la traçabilité de l'authentification sur les postes de travail. Pour unifier les méthodes d’authentification et d’identification sur l’ensemble du parc informatique de notre université, nous avons décidé de mettre en œuvre un domaine AD centralisé sécurisé. Afin de mener cette démarche, nous avons été accompagnés par un prestataire expert en sécurité et nous nous sommes appuyés sur les Bests Practices en vigueur concernant les AD. Nos principaux objectifs étaient, certes d’améliorer le service aux usagers, mais aussi et surtout de sécuriser notre nouvelle architecture. L’actualité des attaques sur des AD démontre la nécessité de ne pas négliger la sécurité lors de sa mise en place, ainsi dans cette communication, nous aborderons les points suivants : * la mise en place d'une architecture de type PKI permettant une liaison IPSec entre les serveurs, la sécurisation RDP, la restriction des scripts PowerShell, et la synchronisation de nos référentiels métiers ; * les différents rôles FSMO (Flexible Single Master Operation) et leurs isolations ; * le volet organisationnel et fonctionnel autour de l'AD ; * le déploiement de LAPS (Local Administrator Password Solution) sur les postes de travail ; * l'audit de l'AD que nous réalisons dans une démarche d'amélioration continue, avec deux outils open source PingCastle et BloodHound, nous permettant d'avoir des indicateurs au niveau de la sécurité.
Biographie de l'auteur
Xavier Girardin est informaticien de proximité à l’université de Reims Champagne-Ardenne. Il est notamment en charge de la gestion du parc informatique, des serveurs et des applicatifs de la bibliothèque Universitaire répartie sur 10 sites dans la région Champagne-Ardenne. Il est membre actif dans différents projets portés par le service informatique de proximité en apportant une attention plus particulière sur le projet Active Directory dont il est l’administrateur et le chef de projet. Emmanuel Mesnard est ingénieur sécurité et RSSI à l'Université de Reims Champagne-Ardenne. 3/4 de son temps est consacré à l'opérationnel et le reste au fonction de RSSI. Il apprécie particulièrement l'aspect réponse à incident à travers l'analyse et traitements d'incidents (Forensic) et analyse de flux réseau à titre professionnel et personnel, notamment en étant contributeur actif pour le site de challenges en sécurité "Root-Me" avec la création de différents challenges en "Forensic".
49 - Déploiement d'un SIEM et enrichissement des données
Thibaud BadouardRésumé
Le déploiement d’une solution de gestion des événements de sécurité (SIEM) au sein du GIP s’est heurté à deux difficultés que nous avions sous-évaluées : la charge nécessaire à l’analyse des incidents et la complexité de la gestion des sources de données. Dans notre poster, nous vous proposons de découvrir ce que nous avons mis en œuvre pour réduire ces difficultés. Nous y aborderons les thématiques suivantes : * L’enrichissement des événements remontés par le SIEM avec des sources d’informations : * externes (sites de réputation d’IP, blacklists publiques) pour augmenter le niveau de confiance dans les résultats fournis (cette machine fait-elle partie d’un botnet ? D’autres structures ont elles observé des évènements similaires ?) et faciliter le travail d’analyse ; * internes (référentiels, outils de gestion d’IP) pour adapter la réponse à apporter (est-ce que la source de l’évènement est interne au GIP ? Est-ce une machine de la communauté ?) et pouvoir automatiser une partie de la réponse à incident. * L’amélioration de la gestion des sources de données en interfaçant le SIEM avec le puits de logs de l’infrastructure pour réduire le nombre d’évènements inutiles analysés et faciliter la récupération de nouveaux types d’événements.
62 - Amélioration de la confiance dans la Fédération Éducation-Recherche
Geoffroy Arnoud - Guillaume Rousse - Anass ChabliRésumé
La Fédération Éducation-Recherche permet de sécuriser et simplifier l’accès à des services en ligne destinés à la communauté Éducation Recherche, elle relie aujourd’hui environ 300 établissements et 1200 services. Cette relation repose principalement sur la confiance entre les différents participants, fondée sur le cadre technique et organisationnel défini par le GIP RENATER. Il est donc primordial de maintenir un niveau de confiance élevé dans une fédération qui ne cesse de croître. Dans ce sens plusieurs actions sont entreprises pour contrôler et relever la qualité des données, aussi bien au niveau national qu’international (eduGAIN). Cela passe notamment par : * Une mise à jour du cadre technique et organisationnel de la Fédération Éducation-Recherche ; * La mise en place de contrôles proactifs du respect de ce cadre ; * Le déclenchement d’actions palliatives par les membres ; * La collecte d’informations et la construction d’indicateurs globaux sur l’utilisation de la fédération. Dans cette présentation, nous présenterons l’avancement des travaux permettant d’atteindre les objectifs que RENATER s’est donnés : * Augmenter la fiabilité : en améliorant l'interopérabilité entre les différentes entités, afin de diminuer les problématiques de support ; * Améliorer l'expérience utilisateur : en s'assurant de la disponibilité des services, de la pertinence de leur présence dans une fédération nationale, et de la qualité de leurs éléments descriptifs (nom, logo, description) ; * Améliorer la confiance : en cadrant mieux les pratiques, en rappelant la nécessité de prise en compte du RPGD, et en encourageant l'adhésion aux différentes certifications optionnelles (SIRTFI, R&S, Code of conduct) ; * Fournir des métriques et statistiques d’authentification au niveau de la fédération.
Biographie de l'auteur
Geoffroy, Guillaume et Anass font partie de l'équipe qui opère le service fédération d'identité mis à disposition de la communauté éducation-recherche par RENATER.
65 - FALCON : un outil pratique et utile pour la communauté ASR
Jean-luc Evrard - Marc Herrmann - Virgile Jarrige - Thomas Keller - Yasmina Ramrani - Sébastien SchmittRésumé
« Je dois installer un certificat électronique sur un serveur web. J’ai déjà su faire, mais je ne me rappelle plus trop. » Et pour cause… C’était il y a 42 ans, notre collègue ASR Tony Ladébrouille venait d’entrer au CNRS. Seul au fond de son labo, avec un pull bleu barbeau, Tony craint d'égarer un temps précieux pour retrouver ces infos perdues dans sa mémoire. Il se dit que s’il avait rédigé une procédure à l'époque, tout serait simple. Il se dit que d'autres ASR ont dû rencontrer le même problème que lui. Il cogite beaucoup. La sécurité de son serveur web est en jeu. « Et maintenant ? Que vais-je faire ? » soupire notre collègue. Fouiller dans ses archives pour retrouver un cours réseau de Maïté Elaisse ou Jean-Luc Archibeau ? Consulter le chaman Chabanne del Más puis recompiler le cryptonoyau du serveur en mode avion ? Divaguer sur internet à la recherche d'un gentil ASR altruiste ayant rédigé et mis en ligne cette procédure si précieuse ? Se pavaner sur internet et rencontrer (ou pas) l’éden FALCON ? FALCON détient la réponse au problème de Tony. FALCON est aussi une aide pour tous les Tony ASR de France et des environs. Vous souhaitez également profiter de l'expérience de quelques collègues bienfaisants ? Furthermore, vous seriez prêt à partager par petits bouts vos connaissances en alimentant un référentiel SSI pratique, collaboratif et indispensable ? Venez à FALCON avant que FALCON ne vienne à vous. FALCON IS multi-MADE FOR YOU
68 - Faut-il croire tout ce qu’on nous dit ?
Stéphan DavidRésumé
Du fishing cryptant la comptabilité de madame Michu avec un bon ransomware afin de lui extorquer quelques Bitcoins, elle qui ne connait même pas le nom, en passant par le lycéen boutonneux jouant à Mr ROBOT et suivant un “tuto” youtube pour faire du Ddos maison sur son école depuis sa propre Box Internet, au président fâché lançant une attaque massive vraisemblablement à cause d'un drone cassé, les cyberattaques sont en croissance de 48% sur 2018 et font régulièrement la chronique de nos 20 heures. Face à cela une multitude d’outils de détection, correction et supervision fleurissent nous promettant une efficacité sans faille pour notre sécurité opérationnelle. Ajouté à cela un effet “tendance” pour la Cyber intelligence, elle vient de l'intelligence artificielle, et peut apprendre de manière autonome à détecter et même corriger la moindre faille de nos systèmes d’informations. Qu’en est il réellement ? Je vous propose de partager un retour d’expérience concret sur plusieurs solutions testées en production sur les centres de données de l’Education Nationale. Scanner de vulnérabilités, détection de cybermenaces, SIEM, autant d’outils qui devraient éliminer toutes les menaces et qui pourtant nécessitent que l’on regarde de plus près les résultats annoncés. Ces outils sont-ils totalement autonomes ? Quelle place nous restera-t-il face à ces outils traitant toujours plus d’informations ?
Biographie de l'auteur
Stéphan DAVID a commencé ses premiers pas en décompilant des jeux comme "Prince of Persia" ou "Bomb Jack" pour passer le nombre de vie de 03 à FF. Il démarre ensuite en Université comme admin sys et réseau et gère des plateformes d’enseignement à distance avant de s’orienter sur des mises en place de solutions de sécurité. Passionné de cybersécurité, Stéphan a rejoint en 2015 l’équipe nationale réseau et sécurité du Ministère de l’Education Nationale. Ses missions se concentrent sur l’audit et la sécurisation opérationnelle des datacenters de l’Education Nationale. Il assure le déploiement du SOC avec les différentes équipes du Ministère. Il regrette de ne pas avoir plus de temps pour faire des CTF car il adore ça. Stéphan apporte ici un retour d’expérience sur la mise en place d’outil de sécurité et particulièrement de détection de vulnérabilités sur le périmètre des Datacenters de l’Education Nationale.
77 - Proxy sortant avec prise en charge de HTTPS et sans rupture du chiffrement
Laurent VerheirstraetenRésumé
L'objectif du projet est d’empêcher le téléchargement d’outils de piratage sur des serveurs via une session sortante, tout en permettant les mises à jour légitimes des composants, système d’exploitation et logiciels applicatifs. L’architecture retenue est un proxy (mandataire) sortant (Squid). Le mode transparent est indispensable car les clients web légitimes sont trop nombreux et variés pour les configurer chacun. Les principes de mise en œuvre sont : * Un équipement actif du réseau redirige toutes les sessions TCP sortantes ports 80 et 443 vers un serveur proxy chargé de filtrer ce qui est autorisé ; * Le proxi Squid rejette ce qui ne figure pas en liste blanche. L’accent est mis sur la technologie « Peek and Splice » qui exploite l’élément Server Name Indication (SNI) échangé avant que le chiffrement ne soit effectif dans les nouvelles évolutions de TLS. Ce SNI est donc disponible pour filtrer les sessions sortantes avec une liste blanche, sans déchiffrement du flux, celui-ci étant simplement transporté via un tunnel TCP. Avec cette solution, il n'est plus nécessaire de générer des certificats à la volée pour que le proxy fonctionne en mode vraiment transparent. Sur cette base, le projet consiste alors essentiellement à élaborer une liste blanche des Fully Qualified Domains (FQDN) couvrant tous les besoins de mises à jour après une période d’observation des logs. La vérification des logs peut permettre le cas échéant, de repérer une éventuelle tentative de téléchargement qui pourrait sembler suspecte.
95 - Apprendre la sécurité informatique en jouant avec des systèmes embarqués
Egea Philippe - Olivier Fruchier - Faissal BakaliRésumé
« Vous venez d’être recruté comme détective privé par Monsieur Bob Hésite, PDG de l’entreprise TestSol spécialisée en panneaux solaires thermiques et photovoltaïque. Pour votre couverture, vous êtes engagé comme spécialiste de l’informatique industrielle pour vos compétences dans l’électronique et l’informatique. Monsieur Bob Hésite pense que vous mènerez à bien vos nouvelles missions et que vous démontrerez toutes vos capacités décrites dans votre Curriculum Vitae, tant en espionnage, qu’en expertise d’informatique industrielle. » Voici comment démarre notre jeu sérieux! Pour le bon fonctionnement du jeu, il est important de mettre les étudiants dans un contexte ludique et dramatique. Nous avons conçu notre scénario sous la forme d’une enquête policière. Cette enquête conduit les étudiants tout au long du scénario et les amène à avancer dans la résolution des problèmes étape par étape. Le nom des personnages doit être révélateur du scénario et les oriente sur la culpabilité des personnages. Le jeu sérieux a été testé grandeur nature avec un binôme d'étudiants de Licence 3 informatique et électronique en février 2019.Nous donnerons, ainsi toutes les informations de création et de déroulement de ce jeu qui a duré 9 heures : * Genèse du projet consécutive à une attaque informatique * Matériels nécessaires * Temps de préparation Nous avons réussi à faire comprendre à nos étudiants pourquoi l’installation d’un exécutable frauduleux peut renverser facilement une politique de sécurité et le tout en jouant. Ce jeu conçu dans un esprit Fablab se veut, aussi, être un moment de partage pour la communauté des JRES.
98 - Tordons le cou au phishing
Damien Mascré - David Verdin - Laurent Aublet-cuvelierRésumé
À la liste des nombreux maux dont souffre le mail, le phishing fait figure de vérole : rare, honteux, mais malheureusement dévastateur. Et pourtant : SPF, DKIM, DMARC, etc. L'IETF ne manque pas de RFC pour améliorer le niveau de méfiance de la messagerie. Le but de ce mille-feuille de plusieurs centaines de pages est de combattre les messages illégitimes selon la méthode de la « méfiance par défaut ». En bref cela nous donne carte blanche pour rejeter des messages, même légitimes. La RFC ARC, introduisant la notion de confiance sélective, on peut améliorer encore la pertinence du filtrage. L’objet de cet article est de vous (re)présenter ces RFC et la façon dont elles fonctionnent ensemble. Notre communauté peut vaincre le phishing si : - elles sont implémentées sur une large échelle ; - nous faisons converger nos politiques de filtrage. Bien que nous ayons mené des expérimentations que nous souhaitons partager, cet article ne vous donnera pas de solution toute faite. Nous voulons que la collaboration au sein de la communauté commence ici, aux JRES. Tout le monde est là, c'est le moment de parler. Venez donc si : * vous voulez en savoir plus sur les dernières RFC ; * vous avez des idées sur l'amélioration collective du mail ; * vous voulez participer à un effort collectif pas trop prenant dans un ambiance conviviale ; * vous êtes responsable marketing dans un boîte de fibre optique et ne savez pas où faire la sieste.
Biographie de l'auteur
Damien Mascré est ingénieur messagerie électronique chez RENATER. Il a 15 d'expérience dans l'administration de messagerie électronique dans l'enseignement supérieur. Il a notamment été reponsable, pendant 8 ans, de la messagerie électronique de l'université Paris XIII. Au sein de RENATER, il est plus particulièrement chargé de l'évolution et de la modernisation de l'infrastructure de messagerie sur laquelle s'appuient l'ensemble des services de RENATER. Laurent Aublet-Cuvelier est ingénieur chez RENATER, depuis plusieurs années. Il est responsable du service PARTAGE (plus de 400 000 utilisateurs fin 2019) et du service anti-spam mutualisé (3 millions de comptes protégés). David Verdin est ingénieur, spécialiste de la messagerie et des listes de diffusions chez RENATER. Depuis douze ans, il a travaillé sur le logiciel Sympa, pour tous les aspects du logiciel : développement, formation, promotion, déploiement et opération de services. Il s'occupe notamment du services de listes de RENATER, actuellement opéré pour une quarantaine de domaines regroupant 350 000 utilisateurs uniques et diffusant 7 millions de messages par mois.
108 - Le Portail de Services de la Plateforme Nationale de Confiance Numérique du Ministère de l’Éducation Nationale
Jean-michel Lopez - Bruno ReineRésumé
La dématérialisation et la confiance numérique sont des enjeux clés du secteur public, au cœur de la stratégie de transformation numérique impulsée par l'Etat. Les actions engagées par notre Ministère s’inscrivent dans la réforme de l’État et de la modernisation de l’action publique. Dès 2014, les besoins métiers du MEN, du MESR et de ses établissements ont donné naissance à la Plateforme Nationale de Confiance Numérique du Ministère de l'Education Nationale, totalement opérationnelle pour les besoins du MEN. La présentation se déroulera en 2 temps. Tout d'abord, nous présenterons en détail les moyens mis en œuvre, les solutions technologiques, l'architecture, l'organisation permettant d'opérer la solution pour répondre aux enjeux métiers de notre ministère. Nous aborderons également les aspects coûts et réglementaires liés au projet et à son exploitation. Ensuite nous parlerons de la nouvelle offre de service en ligne à destination de l'ensemble de la communauté Enseignement et Recherche, offre élaborée au regard des besoins exprimés par nos RSSI respectifs et portée par notre RSSI National. Pour conclure, nous exposerons les évolutions envisagées de l'infrastructure, les travaux menés en vue d’une certification eIDAS afin de répondre aux contraintes légales en mesure de signature, d'améliorer le service global et de développer de nouveaux usages.
145 - Retour d'expérience sur la mise en place d'un centre opérationnel de sécurité
Vincent RibaillierRésumé
Le ministère de l'Éducation nationale et de la Jeunesse (MENJ) et le ministère de l'Enseignement supérieur, de la Recherche et de l'Innovation (MESRI) se sont dotés en 2019 d'un centre opérationnel de sécurité. Le centre opérationnel de sécurité des systèmes d’information ministériels (COSSIM) intervient sur des missions dites synchrones (détection et réaction immédiate) et asynchrones (analyse, qualification, mesures techniques et retours d’expérience). Nous présenterons tout d'abord un retour d'expérience sur le démarrage de cette nouvelle entité ainsi que les différentes phases qui ont été nécessaires pour sa construction. Nous aborderons également les pistes proposées pour consolider les interactions entre le centre opérationnel et les différentes équipes sécurité de l’organisation, dans un souci d’optimisation des capacités de réaction aux évènements de sécurité. Puis nous montrerons le rôle du COSSIM vis à vis des établissements d‘enseignement et de recherche, notamment de l'assistance pour la gestion de leurs incidents. Cette assistance, complémentaire à celle proposée par le CERT RENATER, est orientée qualification et aide à la remédiation. Elle s’articule autour d’un service Web de déclaration et de suivi des incidents qui permettra à la communauté des RSSI d’entrer en relation avec les experts en cyberdéfense du COSSIM.
150 - Campagnes de phishing automatiques
Denis JoiretRésumé
Le phishing (ou hameçonnage en français) est l’une des principales techniques d’ingénierie sociale utilisée pour capter les identifiants. Afin de sensibiliser ses utilisateurs, Inria a décidé depuis plusieurs années de lancer régulièrement de fausses campagnes de phishing. Une campagne consiste à transmettre à un ensemble d’utilisateurs un mail contenant un lien vers un faux site sur lequel l’utilisateur est incité à saisir ses identifiants. La solution présentée fonctionne de manière automatique : choix des utilisateurs participant à une campagne, envoi des mails, exploitation des saisies des utilisateurs sur le faux site et traitements effectués sur les données. Nous décrirons le déroulé général d'une campagne, le fonctionnement du faux site (page initiale, pages de retour aux utilisateurs suite à une connexion) ainsi que les traitements qui sont fait avec les données obtenues. Les données traitées étant des données à caractère personnel, l’aspect RGPD est abordé (permettre aux utilisateurs l’accès à leurs données, anonymisation des résultats, etc.). En final, les enseignements généraux tirés des résultats des campagnes sont présentés, en particulier de savoir si l’objectif d’améliorer la vigilance des utilisateurs grâce aux campagnes de phishing est atteint.
Biographie de l'auteur
Denis Joiret a fait l'essentiel de sa carrière chez Inria. Embauché en tant qu'Ingénieur Système sur le site de Rocquencourt, il a rapidement été chargé de la conception et de la mise en place d'un réseau Ethernet couvrant le site. A la suite de ce déploiement, une équipe réseau dont Denis a pris la responsabilité a été formée. En tant que responsable de l'Equipe Réseau et Télécom, il a assuré pendant une vingtaine d'années les évolutions et le bon fonctionnement de toutes les infrastructures réseau et de téléphonie du site Inria de Rocquencourt. Denis Joiret a ensuite choisi d'orienter sa carrière vers la sécurité informatique en intégrant en 2011 la Cellule Sécurité de la DSI d'Inria. C'est dans le cadre de cette fonction qu'il a été amené à développer le système de campagnes de phishing. Il travaille désormais au sein du SOC (Security Operations Center), service nouvellement créé à la DSI d'Inria en remplacement de la Cellule Sécurité. Denis Joiret assure également la fonction de RSSI suppléant.
8 - Installation scriptée de PCs pédagogiques sous Fedora28
Frédéric Amrein - Pierre-philippe ChaponRésumé
Notre système d’installation automatisée des postes pédagogiques de Polytech Clermont-Ferrand se base une approche très industrialisée du déploiement. Notre idée est de proposer un service fiable, optimisé et simplifié pour les installations et ré-installations de salles. Ainsi nous savons répondre au mieux aux besoins pédagogiques de l’école. Nos PCs sont installés sous distribution linux Fedora via un boot PXE et un script « kickstart ». Ce script permet une installation très personnalisée du système, il se décompose en trois phases : * Définition des paramètres d’installation du système d’exploitation. * Définition des paquets que l’on souhaite installer et ceux que l’on souhaite supprimer. * Application des scripts post installation qui permettent une personnalisation avancée du système. Par la suite, les tâches de maintenance régulières comme les installations de nouveaux paquets seront exécutées en bloc via ParallelSSH. Ce système répond à une très grande partie des besoins pédagogiques mais pas tous : les étudiants ont besoin de certaines applications natives Windows. Ainsi, nous distribuons également sur l’ensemble du parc une machine virtuelle Windows accessible à tous les utilisateurs connectés via un serveur Bitorrent.
76 - Confessions d'un groupe de travail : sept étapes capitales pour trouver une solution de déploiement d'OS et logiciels unifiée
Laurent Granier - Emmanuel Lestrelin - Frederic Bloise - Bernard BerenguierRésumé
Suite à la fusion des trois établissements d’Aix-Marseille, les pratiques hétérogènes dans les méthodes de gestion du parc à AMU ont fait apparaître la double nécessité d’harmoniser les pratiques et d’uniformiser les procédures de gestion de parc. AMU a constitué un groupe de travail composé de personnels de la Direction Opérationnelle du Système d'Information (DOSI) issus de différents horizons géographiques et techniques. L’étude a duré un an et demi et a comporté sept étapes successives, sept tentations ultimes qui ont mené le groupe de travail vers la révélation de la sagesse divine : - Expression du besoin : l’Envie - Tour d’horizon du marché : la Gourmandise - Tour d’horizon des usages : la Paresse - Premier filtrage des solutions connues : l’Avarice - Tests fonctionnels : la Luxure - Choix d’une ou plusieurs solutions idéales : l’Orgueil - Propositions de scénarios de mise en œuvre : ... Chacune de ces étapes sera présentée dans le détail, puis le bilan de l’étude sera exposé et commenté.
78 - Déploiement efficient d'une offre logicielle à l'échelle académique
André Rivoallan - Moncef Ziani - Matthieu Terre - Jean-baptiste FaucheronRésumé
La Direction des Systèmes d’Information et de l’Innovation de l’académie de Rennes gère un parc de plus de 60 000 postes de travail réparti sur 300 sites hétérogènes et autant de domaines indépendants (Samba ou Active Directory). Dans le cadre de la loi Peillon de 2013 qui a modifié les périmètres respectifs de l’État et des collectivités, et d’un cadre budgétaire fortement contraint, les équipes du Rectorat ont recentré leurs activités de maintenance vers l’ingénierie en centralisant la gestion des postes de travail, en automatisant leur mise en service et en déléguant leur déploiement. Une première étude a spécifié la configuration type du poste de travail Windows 10 de l’Académie, avec des variantes pour les postes pédagogiques, administratifs, ainsi qu’un volet « handicap ». L’offre applicative a été explicitée sous la forme de catalogues logiciels (pédagogique, administratif et « handicap ») pour le premier degré, les collèges et les lycées, chacun piloté par une Maîtrise d’OuvrAge dédiée. La présentation détaillera les aspects organisationnels et techniques du projet, qui permet aujourd’hui de proposer aux utilisateurs de l’académie de Rennes : * une offre logicielle cohérente, affichée aux utilisateurs ; * une meilleure sécurité des postes de travail, par leur évolution continue (WSUS / WAPT) ; * un meilleur suivi des machines (GLPI / FusionInventory, installation des applications à distance) ; * une meilleure qualité de service (meilleur support par l'uniformité des postes et délégation aux utilisateurs) ; * la mise en œuvre de politiques académiques (catalogues logiciels, politique de sécurité) ; * une maîtrise des coûts (outils gratuits ou libres).
122 - WAPT ou le déploiement de logiciel facilité
Florent Fareneau - Jean-luc Petit - Benjamin BurnoufRésumé
L’Université de Valenciennes a revu depuis 2013 ses solutions de déploiement et de maintenance logicielle de l’ensemble de son parc machine. En effet, avant cette date, les machines étaient déployées à partir d’images masterisées nécessitant un stockage important. Il fallait régulièrement procéder à des ajustements logiciels directement sur le poste client. Le suivi des mises à jour de ces postes devenait alors problématique (patchs de sécurité, hétérogénéité des versions déployées...). Nos besoins : faciliter le déploiement, la prise en main et la montée en compétences ; gérer de manière centralisée l’ensemble des sites et les aspects financiers pour plus de 2000 postes clients. Un état de l’art des solutions de déploiement de systèmes d’exploitation et de logiciels a été effectué : Dell Kace, SCCM, UpdateEngine, Landesk, GPO, OCS, WPKG. Notre choix s’est arrêté sur le couple MDT (déploiement d’OS Windows) et WAPT (déploiement de logiciels). Les points forts de WAPT : un produit opensource, une console simple d’utilisation, une bibliothèque de paquets logiciels, une application évoluant rapidement, une solution supportée par une entreprise française, un système de mise à jour en mode push et non bloquante… La solution doit permettre de déléguer, à l’équipe de proximité, des droits d’usages afin de créer, déployer et fiabiliser les paquets. Nous évoquerons dans ce retour d’expérience l'expression de nos besoins initiaux, nos études de solutions de déploiement, notre choix pour ce logiciel, nos réussites et limites dans l'usage sur ces 5 dernières années et nos prospectives dans celles à venir avec une API en plein développement ou un self-service applicatif ...
Biographie de l'auteur
De formation informatique généraliste, Florent Fareneau a intégré l’équipe en charge des aspects hébergements, systèmes et réseaux du service informatique central de l’université de Valenciennes et du Hainaut cambrésis en 2003. Depuis 2005, il assume la fonction de responsable de la sécurité des systèmes d’informations, entre 2013 et 2017, il se voit confier la responsabilité du pôle « infrastructure de services et réseaux » de la direction des systèmes d’information, composé des collègues ingénieurs et de l’équipe des techniciens informatiques. C’est sur cette période que le projet de modernisation des outils de déploiement a été lancé avec les différents impacts sur les aspects transversaux des domaines réseaux et systèmes. Depuis janvier 2018, Florent Fareneau est directeur adjoint délégué aux systèmes d'informations au sein de la Direction des Systèmes d'Informations de l'université polytechnique Hauts-de-France. --------------------------------------- Diplômé en 2015, Benjamin Burnouf a intégré la Direction des Systèmes d’Information (DSI) de l’Université Lille 1 en tant qu’Ingénieur Système. Puis a participé au regroupement des 3 Universités Lilloise. Il a pendant cette période travaillé à la mise en commun des outils et à l’élaboration des nouvelles méthodes de travail avec les collègues des différents établissements. Benjamin Burnouf est actuellement agent au sein de la DSI de l’Université Polytechnique Haut de France, ex-Université de Valenciennes et du Hainaut Cambrésis, depuis environ 1 an. Il a intégré le pole infrastructure avec les missions suivantes : • l’administration de l’infrastructure d’hébergement, • le maintient en condition opérationnelle des services aux utilisateurs, • la modernisation des outils de l’établissement. ---------------------------------------- Suite à un diplôme d'ingénieur, Jean-Luc Petit intégre en 1987 le Laboratoire d' automatique industrielle et humaine (LAIH) de l'université de Valenciennes, associé au Cnrs. Durant 10 ans , il participe avec le service informatique de l'université au développement des infrastructures réseau et système . En 1998, suite à un concours , il intègre le service informatique qui deviendra la Dsi de l'Université de Valenciennes. Depuis il assure les fonctions d'ingénieur système et réseau avec des missions diverses et variées .
130 - Gérer les postes de travail hors réseaux établissement avec Microsoft SCCM
Yves Daniou - Julien MercierRésumé
La DSI du rectorat de l'académie de Grenoble gère un parc de près de 2000 postes de travail Windows, environ un tiers de ces machines étant des portables utilisés principalement hors de nos réseaux internes. Avec la rénovation du service de Gestion de Parc (GDP) entamée en 2016, il est apparu nécessaire de se doter d’une solution unique et centralisée permettant de gérer le cycle de vie complet des postes de travail. Un des besoins forts était que le produit puisse réaliser les inventaires matériels et logiciels, le déploiement d’applications et la gestion des mises à jour du système quel que soit le réseau depuis lequel le poste est connecté. Il nous a donc fallu évaluer une solution qui permette nativement une connexion la plus sécurisée possible aux serveurs internes, tout en restant transparente pour l’utilisateur final et facilement administrable par nos équipes. Microsoft System Center Configuration Manager (SCCM) a finalement été choisi puis intégré en 2018, étant le seul produit permettant une gestion quasi-complète des postes connectés sur Internet, à condition qu’ils possèdent chacun un certificat client x509 pour se connecter de manière sécurisée à l’infrastructure académique SCCM depuis l’extérieur. Notre présentation s’attachera à décrire ces besoins ainsi que les raisons qui nous ont poussé à choisir SCCM, avant de présenter l’architecture sécurisée mise en place ainsi que les modalités de certification x509 automatique de l’ensemble du parc de postes de travail grâce à l’IGC de Microsoft, Active Directory Certificates Services (ADCS). Enfin, nous présenterons notre retour d’expérience sur les différents services SCCM fonctionnels hors réseau interne.
Biographie de l'auteur
- Yves Daniou est en poste au rectorat de l'académie de Grenoble depuis 2007. Après avoir travaillé comme technicien d'exploitation au sein du service de Gestion de Parc, il en a assuré la coordination technique quelques années en tant que gestionnaire de parc informatique. Depuis 2015, il est administrateur systèmes et réseaux, dans un contexte technique plutôt orienté vers Linux et les logiciels libres. Son travail sur Microsoft SCCM s'est inscrit dans le cadre d'un stage et d'un mémoire d’ingénieur du Conservatoire National des Arts et Métiers (CNAM). - Julien Mercier gère et administre les solutions de déploiements au service Gestion de Parc de la DSI de l’académie de Grenoble. Il travaille principalement sur l'automatisation des tâches d'installation et de configuration d'applications et de systèmes d'exploitation Windows. Plus familier des outils Open source tel que OCS et GLPI et des langages de scripts comme autoit, batch ou Powershell, il se forme aujourd'hui à l'utilisation de Microsot System Center Configuration Manager comme outil central de gestion de parc.
137 - VDI, un atout pour la pédagogie ?
Jonathan Staimphin - Regis Khamchanh - Thomas FourezRésumé
2012 : les 3 universités marseillaises fusionnent en un établissement immense de 78000 étudiants et 10000 personnels, découpés en cinq campus répartis sur plusieurs villes. L’objectif, irréaliste à l'époque, ambitieux aujourd'hui, est qu’enseignants et étudiants retrouvent le même service et environnement de travail depuis n’importe quel site. N’importe quel cours doit pouvoir se dérouler depuis n’importe quelle salle ! La gestion du parc des ordinateurs pédagogiques est devenue très lourde : plus de 5000 postes avec un grand nombre de logiciels à maintenir, ce qui offre peu de flexibilité et demande beaucoup d’énergie aux équipes informatiques. Mais comment optimiser ce travail pour remplir cet objectif ? Comment leur permettre de passer moins de temps sur des tâches récurrentes et surtout que le travail effectué sur un campus soit réutilisé facilement pour l’ensemble de l’établissement ? Pour répondre à cette problématique, nous nous sommes tournés vers une infrastructure de postes de travail virtuels (VDI Virtual Desktop Infrastructure) avec la solution VMWARE HORIZON. Cet article présente la démarche qui nous a amenés à nous lancer dans l’expérience VDI. Nous vous proposons ainsi de faire un focus sur les différents aspects de ce projet : choix de la solution VDI, modèle économique, choix d’infrastructure, organisation du travail en équipe, problèmes rencontrés (de toutes sortes). Mais surtout, que peut apporter le VDI dans le contexte de la pédagogie ? Plus globalement nous souhaitons faire profiter la communauté de notre retour d’expérience dans cette phase de mise en œuvre, et partager ainsi nos réussites, nos doutes et les défis qu’ils nous restent à relever.
Biographie de l'auteur
Tout d'abord gestionnaire de parc pédagogique à l'université de Lille 3 en 2007. Jonathan quitte le houblon pour les oliviers et poursuit sa carrière bien plus au sud à l'université d'Aix-Marseille 3 qui devient Aix-Marseille Université en 2012. Il se spécialise dans le domaine de l'infrastructure serveurs, hyperviseurs et stockages. C'est en tant que chef de projet du déploiement du VDI qu'il présente cet article aujourd'hui. Aujourd’hui gestionnaire de parc à la faculté de médecine de l’université d’Aix-Marseille, Thomas a débarqué des plages de Cannes il y a 3 ans et participe au projet VDI depuis ses débuts sur la cité phocéenne. Il milite avec ferveur pour l’harmonisation des masters et des méthodes de travail, un autre grand sujet… Régis part en croisade avec l'équipe VDI afin de libérer la pédagogie de ses contraintes physiques. Avec son heaume de gestionnaire de parc il apportera son soutien sur les questions V(irtual) et D(esktop). L'histoire raconte qu'il développera des aptitudes I(nfrastructure) lui permettant d'être adoubé par ses pairs.
141 - PDQ Deploy/Inventory
Laurent Chieppa - Loic LeforestierRésumé
Résumé La problématique de la gestion d’un grand parc informatique est une chose classique. Les machines sont à jour au moment de leur mise en service mais le suivi des mises à jour logicielles et de diffusion de nouveaux paramétrages restent des actions majeures. Pour faire face de manière la plus efficace possible, la suite logiciel PDQ de Admin Arsenal nous permet de mieux gérer notre parc informatique. Avec PDQ Inventory, nous avons un suivi en temps réel de l’inventaire d’un poste informatique et connaître les logiciels installés, la configuration du poste (matériel, adresse IP, capacité disponible sur le stockage, etc). Il nous permet aussi de désinstaller des logiciels, faire du Wake on Lan… Il est possible de faire des collections de machines, soit statiques (regroupées manuellement par le technicien), soit dynamiques, en fonction de filtres (plage d’IP, version de logiciel,...). PDQ Deploy nous sert à déployer des applications à distance de manière silencieuse afin de garder les logiciels installés à jour. Nous l'utilisons aussi dans le cadre de la reconstruction de nos salles pédagogiques. Les installations se font de manière transparente pour l’utilisateur, de manière silencieuses, nous effectuons des installations en plusieurs étapes (désinstallation de l’ancienne version, reboot, copie de fichiers, installation, exécution d’un script de personnalisation du logiciel, etc). Il nous arrive aussi de programmer des installations (au démarrage de la machine, tous les midis, dès que la machine est visible du réseau…). Nous avons choisi cette solution car elle offre davantage de souplesse de mise en œuvre et gestion que la solution complète SCCM.
Biographie de l'auteur
Chieppa Laurent 38 ans, Entré dans la fonction publique en Février 2004 en tant que logisticien d’enseignement, j’ai rejoint le CRIP de la faculté de Médecine et Pharmacie début 2005 dépendant de la DSI de l’Université Joseph Fourier. Suite à la réussite du concours de technicien, j’ai rejoint la DSI de l’Université Pierre Mendes France en 2012. En 2016 les universités de Grenoble fusionnent et j’intègre l’équipe de gestion de parc de la DGDSI de l’Université Grenoble Alpes. Je participe à des projets visant harmoniser les méthodes et outils pour la gestion de parc et met en place l’outil de déploiement pour l’ensemble des ordinateurs de l’université de Grenoble, MDT. Je participe aussi à d’autre projets comme la mise en place de l’outil de télé-déploiement d’applications PDQ Deploy et Inventory, puis au groupe de travail pour la gestion des GPO autour de l’AD de l’UGA. Enfin j’intègre le Comité Technique SUMMER (Stockage Unifié Mutualisé Massif Evolutif et Réparti).
142 - Déploiement logiciel open source et multiplateforme
Guillaume FerryRésumé
Qui n’a jamais rêvé d’une solution unique pour se débarrasser des tâches d’administration logicielles sous Linux, Windows et macOS? L’évolution du champ d’action et des domaines de compétences nous poussent à rationaliser les tâches les moins valorisantes et les plus chronophages de notre travail ; la gestion du cycle de vie logiciel d’un parc en fait partie. Installation du poste de travail, déploiements ponctuels, mises à jours d’applications, sont autant de tâches manuelles répétitives que nous avons cherché à automatiser et à fiabiliser. Nous avons conclu à l’issue d’une étude préalable qu’aucune solution clé en main ne pourrait répondre entièrement au contexte de l’université : -Disposer d’une solution unique, multi-site, multiplateforme et open source. -Disposer d’une interface simple, intuitive et accessible depuis n’importe où. -Offrir un catalogue logiciel assez étendu pour répondre aux besoins d’une population d’utilisateurs variés. C’est en associant plusieurs « briques » logicielles indépendantes que nous avons pu répondre à cette problématique. Ce modèle est bâti autour d’un service de gestion de configuration centralisé capable de communiquer avec la majorité des gestionnaires de paquets. L’exploitation de cette solution se fait au travers d’une application web qui a fait l’objet d’un développement interne. De nombreuses équipes de sites se montrent intéressées par cette solution qui est déjà en production sur 11 sites répartis sur la Lorraine, soit un volume de 3000 machines gérées à la fin de l’année universitaire 18/19. La présentation mettra en avant les points forts de la solution tels que sa flexibilité, son originalité et sa simplicité d’utilisation et de mise en œuvre.
162 - osquery : y a-t-il un OS ?
Mickaël MasquelinRésumé
Nous nous posons tous des questions sur les machines connectées à nos réseaux. Il existe plusieurs outils sur le marché qui permettent d'obtenir quelques réponses (marque/modèle, système(s) d'exploitation(s) et logiciels installés, ...) à l'image d'OCS Inventory NG (logiciel libre) ou des solutions Ivanti LANDESK (commerciale) par exemple. Ces logiciels sont très efficaces et répondent à la problématique de l'inventaire d'un parc de machines ... mais le hic, c'est qu'ils ne remontent pas forcément d'informations du point de vue de leur sécurité relative ou de leur conformité. Ils se voient souvent complétés par un ensemble d'applications tierces pour les auditer et connaitre leur état de santé réel. ... Dès lors, comment savoir simplement s'il y un os sur ces machines ?? Et bien, une solution existe ! Les ingénieurs en Sécurité des Systèmes d'Information chez Facebook ont planché sur le sujet et proposent un moyen de répondre à ces attentes. Il s'agit d'un outil, appelé osquery. Il a l'avantage de couvrir les parcs les plus hétérogènes car il fonctionne sous GNU/Linux, macOS, la famille des *BSD ... mais aussi avec les environnements Microsoft Windows. Cette présentation se propose donc de vous faire de découvrir osquery et sa manière vraiment unique de présenter les entrailles d'une machine (du matériel en passant par les processus ou encore les connexions réseaux par exemple). Ainsi, nous verrons comment lever le voile sur son parc de machines, avoir des indicateurs sur sa sécurité en temps réel et orchestrer le déploiement de cette solution sur un large parc informatique.
Biographie de l'auteur
Mickaël MASQUELIN (mickael.masquelin@univ-lille.fr) CRIStAL – UMR CNRS 9189 ====== Présentation rapide ====== J’ai intégré le CNRS en 2004 dans le cadre d’un concours externe après avoir suivi une formation initiale plutôt tournée vers l’informatique (en l’occurrence développement d’applications) et l’utilisation des nouveaux médias de communication (web). Après avoir successivement occupé les fonctions de Gestionnaire d'Infrastructure, d'Administrateur Systèmes et Réseaux et de Responsable Technique de Pôle j'ai rejoint, en juin 2019, le "Centre de Recherche en Informatique, Signal et Automatique de Lille (CRIStAL)". L'essentiel de son effectif (environ 500 personnes) est regroupé sur le site du campus Cité Scientifique de l'Université de Lille. Je suis affecté au Pôle Informatique et Technique en qualité d'adjoint au responsable du service. Mes principales activités consistent à proposer puis mettre en oeuvre ou piloter le déploiement des projets d'architecture fonctionnelles et techniques pour le Système d'Information de l'Unité. J'essaie, avec mon équipe, de travailler à la mise en place de tout l'outillage DevOps (Terraform/K8s/Docker/Vault) pour nos usagers afin de leur offrir un SI performant, scalable et modulaire. En marge, j'aime le cloud, j'aime le libre, j'aime l'automatisation, j'aime le partage, j'aime les termes compliqués, j'aime les conceptions épurées, ... Bref, j'aime DevOps :-)
19 - Plateformes mutualisées sur Grenoble : Virtualisation & Stockage - Automatisation & Modèle économique
Guenael Sanchez - Mathieu PanelRésumé
L’ Université Grenoble Alpes porte depuis 5 ans des plateformes mutualisées autour des thématiques du stockage de données (SUMMER), de la virtualisation (WINTER) et du cœur de réseau pour les DataCentres (SPRING). Ces plateformes connaissent un engouement certain dans la communauté universitaire. Ainsi SUMMER dépasse les 3 Péta-octets de stockage, WINTER s’approche des 1.000 machines virtuelles hébergées et SPRING compte désormais 1.700 ports réseau, représentant une centaine d’ayant-droits différents, chacun bénéficiant d’accès délégués aux outils métiers. Cette montée en puissance amène des défis importants pour les équipes en charge. Comment formaliser, faciliter et automatiser les différents processus métiers ? Du provisionnement d’espace de stockage ou de machine virtuelle, en passant par la configuration réseau, la délégation des accès aux services, les validations hiérarchiques, la facturation ou le suivi des contrats de location. Comment ne rien oublier, éviter les tâches rébarbatives, suivre les demandes dans le temps ? Grâce à un partenariat entre les équipes techniques et administratives, nous vous présenterons les outils mis en place pour fluidifier les différentes procédures, et proposer des tableaux de bord pertinents. Nous aborderons également le côté organisationnel humain, en détaillant les rôles et les fonctions des différents acteurs, de l'utilisateur au personnel administratif, en passant par les différentes équipes techniques. En nous appuyant sur les technologies BonitaSoft, sur les API des outils Vmware, Netapp et Cisco, et sur les outils issus de notre référentiel BIPER, nous regarderons comment a été construit le dialogue entre ces différentes briques, guidé par les modélisations BPMN des processus métiers.
Biographie de l'auteur
Guenael SANCHEZ : Tombé dans l'informatique quand il était petit, guenael est ingénieur en informatique à l'Université Grenoble Alpes. Depuis la fusion des Universités, il participe activement à plusieurs projets mutualisés du bassin Grenoblois. Trois de ces projets sont devenus réalité. SPRING qui fournit aux DataCentres grenoblois une fabrique IP et un réseau très haut-débit, SUMMER qui propose du stockage de données et WINTER plateforme de virtualisation mutualisée. Mathieu PANEL : Ingénieur, développeur d'application à l'Université Grenoble Alpes. Il participe à l'évolution et à l'interconnexion des différentes briques du système d'information. Il gère la plateforme d'automatisation des processus métiers de l'établissement. Dans le cadre des projets WINTER (plateforme de virtualisation mutualisée) et SUMMER (stockage de données) il développe les outils d'automatisation.
23 - Rspamd : logiciel anti-spam opensource, performant, évolutif et personnalisable
Gauthier CatteauRésumé
La disparition de la messagerie électronique est annoncée depuis de nombreuses années, mais nous pouvons constater qu’en 2019, les échanges par mail n’ont jamais été aussi présents et indispensables. Et pourtant les messages de « phishing » sont de plus en plus pernicieux, le nombre de spams a explosé et les utilisateurs sont devenus plus exigeants que ce soit sur la qualité du filtrage que sur le temps d’acheminement des messages. La messagerie électronique n’est aujourd’hui utilisable que grâce à l’efficacité de nos solutions antispam et des personnes qui les administrent. J’ai choisi de vous présenter le logiciel libre Rspamd qui a fait son apparition il y a maintenant 10 ans, mais qui est resté longtemps méconnu. Rspamd est une solution efficace, performante et dont la mise à l’échelle peut se faire facilement par le simple ajout de nœuds. Il répond de façon élégante à pratiquement toutes les problématiques de filtrage que j’ai pu rencontrer ces 20 dernières années. Et s’il vous manque quelque chose que vous avez imaginé, il est possible facilement d’écrire des extensions dans le langage lua pour étendre ses fonctionnalités.
Biographie de l'auteur
Actuellement responsable de l’équipe système de la Direction des Systèmes d’Information de l’académie de Lille, Gauthier Catteau est administrateur système depuis presque 1/4 de siècle. En plus de ces fonctions académiques, Gauthier participe à plusieurs groupes de travail au sein du ministère de l’éducation nationale sur divers thématiques d’infrastructure. Il est également membre du comité de pilotage du réseau métier régional des Hauts de France Min2rien depuis 8 ans.
27 - Gestion des listes de diffusion, autour de SYMPA
Benoît MarchalRésumé
Sympa est un gestionnaire de listes de diffusion complet et paramétrable. D'accord, mais dans une université importante (10000 personnes, plus de 62000 étudiants), rien que le nommage des listes pose souci. Il faut en faciliter l'usage (création, type de liste prédéfini...) à la fois pour les néophytes, mais aussi pour les administrateurs confirmés. La cohérence, le peuplement automatique sont nécessairement en liaison avec le système d'information. Des rappels automatiques pour éviter les oublis de validation ou d'authentification... Des listes privilégiées pour écrire en 'shuntant' les scenarii spécifiques... Enfin un certain nombre de routines et de configurations adaptées plus ou moins à notre structure. Alors comment peut-on réaliser cela ? À l'université de Lorraine, nous avons écrit des interfaces dédiées, des scripts périodiques, fait des adaptations en utilisant les possibilités du logiciel (Custom Conditions, scenarii, filtres...). C'est plus de 5000 listes pour le personnel, 2000 listes pour les étudiants et encore quelques autres pour des partenaires qui sont gérées sur nos différents robots. Cette présentation veut donner un aperçu de ce que nous avons réalisé. Pourquoi ne pas le partager avec d'autres ?
Biographie de l'auteur
Ingénieur de recherche à l’université de Lorraine (UL), Benoît MARCHAL travaille à la direction du numérique, sous direction infrastructure et services. Responsable d’une équipe chargée de l’exploitation des serveurs, il s’occupe plus spécifiquement sur la sauvegarde, l’infrastructure des serveurs web ou vidéo. Depuis de nombreuses années, il gère les listes de diffusions avec le logiciel SYMPA, d’abord dans une école d’ingénieurs, puis au niveau de l’INPL (Institut National Polytechnique de Lorraine) et depuis la fusion des quatre universités de Lorraine, sur les listes de l’UL. Il en est le référent. Il a apporté quelques traductions et propositions dans le projet communautaire. Autour de SYMPA, l’université a développé tout un environnement lié au système d’information pour en faciliter la gestion des listes par les usagers.
35 - Osez Kubernetes !
Rémi CailletaudRésumé
Kubernetes a la réputation d'être un système complexe, qui n'aurait d'utilité que dans le cadre d'infrastructures conséquentes. On entend souvent qu'y exécuter des applications statefull est compliqué, voire inconscient. Et pourtant... Kubernetes apporte certes des concepts nouveaux, mais il n'est rien d'autre qu'un orchestrateur de conteneurs tirant partie de fonctionnalités connues et éprouvées du noyau Linux. En s'appuyant sur l'exemple du maquettage puis de la mise en production de clusters Kubernetes au sein de l'Observatoire des Sciences de l'Univers de Grenoble (OSUG), nous démontrerons que cet outil n'est ni opaque ni magique, qu'il est adapté à des organisations de toutes tailles, aussi bien pour des tâches d'administration système que dans le cadre de pratiques DevOps. Nous verrons comment il facilite le travail en équipe et la mise en place d'infrastructures programmables à l'aide d'intégration et de déploiement continus. Nous justifierons le choix de Kubernetes, détaillerons ses concepts puis plongerons dans son fonctionnement interne et son API. Nous présenterons ensuite les choix techniques que nous avons fait pour le provisioning et le déploiement des clusters, puis les choix d'infrastructure pour les cluster eux-mêmes : équilibrage de charge L2, reverse proxy, provisioning dynamique des volumes, métriques, monitoring et alertes. Enfin nous aborderons les bonnes pratiques que les outils présentés permettent de mettre en place. La configuration déclarative des clusters nous permet de tendre vers une infrastructure programmable et de développer les méthodes GitOps. Nous présenterons succinctement ces méthodes et les outils utilisés pour la mettre en œuvre.
Biographie de l'auteur
Rémi Cailletaud est responsable technique à l'OSUG et travaille une partie de son temps pour les projets mutualisés de l COMUE UGA, en particulier sur le projet Nova que Nicolas vient de nous présenter.
36 - Microservices de traitements scientifiques sur une infrastructure de type cloud (Openstack, Kubernetes et Docker)
Mohammed Khabzaoui - Yvan StroppaRésumé
Dans le cadre de nos développements de projets scientifiques et de valorisation de la recherche tels qu'Automathon (temps réel), ExecAndShare (calculs scientifiques) ou encore notre plate-forme des réseaux de chercheurs (big-data) et dans le cadre de la mise à disposition de ressources pour la communauté des Mathématiques et de l’université de Lille, nous avions besoin d’une infrastructure de type cloud qui soit capable d'héberger l’ensemble de ces applicatifs constitués de micro services et capable de leur offrir des services de haute performance. Parmi les services qu’offre cette infrastructure, on peut citer des services d’intégration et de déploiement continu (CI/CD), des services d’approvisionnement automatique de ressources (conteneurs, espace de travail) et service d’orchestration. Le tout intégré dans un environnement sécurisé qui garantit la continuité de service (HA, réplication et supervision). Le service d’orchestration est bâti sur une infrastructure Kubernetes s’appuyant sur Docker et hébergé dans un espace cloud de type Openstack. Il pourra de la sorte s’approvisionner auprès de son cloud privé qui lui servira de réservoir de ressources et lui permettra de s’abreuver à sa guise de façon automatique mais contrôlée. Nos communautés sont dotées de façon très déséquilibrée de moyens informatiques centralisés. Lors de l'élaboration de projets informatiques à caractère scientifique, on se retrouve la plupart du temps avec une solution de mise en oeuvre externe à nos institutions (coûteuse et difficile à maintenir sur le long terme). C'est pour cela que nous avons mis en place cette infrastructure pour répondre aux besoins qui émergent des projets scientifiques.
60 - Kubernetes, système d’exploitation de PC-Scol/Pégase
Vincent Hurtevent - Thomas Montfort - Raymond BourgesRésumé
La construction de la solution PÉGASE, futur logiciel de gestion de scolarité et de la vie étudiante, utilise plusieurs principes novateurs dans le développement logiciel et la gestion d'infrastructure. Il s'agit tout d'abord d'une co-construction en méthode agile par plusieurs établissements (AMUE, Association Cocktail, les université de Grenobles Alpes, Nantes et Strasbourg), et d'un point de vue architecture, d'une approche très modulaire, faiblement couplée et API first. Ces choix s'accompagnent de contraintes fortes auxquelles il faut répondre. La méthode agile à l'échelle implique des cycles courts et de déployer plusieurs environnements, dans plusieurs versions et plusieurs fois par jour. L'approche modulaire demande un couplage faible des modules et, pour chacun d'eux, un découpage en plusieurs composants : front, back portant l'API et de stockage. À l'échelle de PÉGASE, cette approche va nécessiter un nombre important de modules et un nombre plus important encore de composants. Ces choix ont dès le début incité à considérer PÉGASE comme une application Cloud Native. Les objectifs ambitieux de l'application ont trouvé écho dans les principes d'immutabilité, d'auto correction, d'élasticité, de haute disponibilité ou bien encore de portabilité que permettent les conteneurs et l'orchestrateur Kubernetes. Nous verrons comment l'utilisation de Kubernetes et des bonnes pratiques s'y rattachant simplifient le développement de PÉGASE par les équipes de développement et son exploitation par l'équipe DevOps. Nous aborderons ensuite des limitations et contraintes que nous avons rencontrées. Enfin nous exposerons pourquoi tout cela nous amène à considérer Kubernetes comme le système d'exploitation de PÉGASE et par extension d'un SI.
Biographie de l'auteur
====== Vincent Hurtevent ====== Il a découvert l'ESR à Poitiers au Laboratoire d'Etudes Aérodynamiques. Il a ensuite travaillé 10 ans au sein de la DSI de l'Université Claude Bernard Lyon 1 en tant qu'admin système et responsable d'infrastructures pour les services numériques, l'appui à la recherche et les applications métiers. Motivé par l'ambition de PC-Scol et l'envie de fournir des services métiers innovants et performants, il intègre le projet PC-Scol début 2018. Depuis, en tant qu'Ops, il met en oeuvre l'infrastructure et l'outillage nécessaire à la construction du logiciel PEGASE et travaille à son intégration dans un environnement Kubernetes. ====== Raymond Bourges ====== En 1993, il entre au service d’informatisation de la gestion de l’université de Rennes 1 comme DBA de la nouvelle application de gestion de la scolarité : Apogée ! Il fait ensuite quelques développements périphériques et monte les premiers intranets. En 2000, il rejoint ce qui n’est pas encore la DSI pour mettre en place un LDAP alimenté par les applications de gestion, participe à la première norme Supann et contribue activement à la mise en place du consortium ESUP-Portail dont il devient le coordinateur technique. En 2012, il met en place une équipe de développeurs qui travaillent en mode agile (Scrum). En 2014, il est mis à disposition de l’association Cocktail pour finalement prendre le poste de directeur technique du projet PC-Scol fin 2017. ====== Thomas Montfort ====== Il a fait ses premiers pas d'administrateur système au sein de l'INSA de Toulouse en 2001. Il y a passé plusieurs années à cultiver sa passion de la ligne de commande et des pingouins. Ensuite il a décidé de gravir les échelons et les sommets alpins en intégrant le SIMSU à Grenoble en 2011. Il y a découvert les exigences de la mutualisation multi établissements et les installations d'Apogée. Il a donc regardé du côté de l’ambitieux et novateur projet PC-Scol pour relever de nouveaux défis. Les technologies récentes, les équipes réparties physiquement et l’utilité du projet l’ont motivé à intégrer l’équipe Ops en 2018.
64 - Nova - Un nuage arc-en-ciel au-dessus des Alpes
Nicolas Gibelin - Rémi Cailletaud - Gabriel Moreau - Jean-françois Scariot - Gabrielle Feltin - Anthony DefizeRésumé
Un service d’infrastructure à la demande (IaaS), mutualisé et fédéral, basé sur la suite logicielle Openstack a été déployé sur le campus universitaire de Grenoble durant l'année 2018 puis mis à jour en 2019. Nous présentons les méthodes que nous avons choisies pour déployer et gérer l'infrastructure : racadm et preseed pour l'installation du système de base, puis Kolla pour le déploiement d'Openstack. Cette dernière solution, basée sur des conteneurs pour chaque service, permet une configuration centralisée et historisée (GitLab) des contrôleurs et des nœuds de calcul. La solution s'impose comme la solution de référence pour un déploiement reproductible d'Openstack. Notre nuage a ainsi été facilement étendu avec de nouveaux nœuds. Le changement de version de l'OS de base a aussi pu être testé avec succès malgré quelques petits couacs... La sécurité étant un élément clef du bon fonctionnement de ce type de service mutualisé, chaque projet a été rendu étanche et ses données parfaitement isolées vis-à-vis des autres projets, grâce au chiffrement de tous les flux réseaux dans des VXLAN. Cette plate-forme d'infonuagisme OpenStack est opérationnelle. À quoi tout cela sert ? Nos premiers utilisateurs font par exemple du Notebook Jupyter au travers de la mise à disposition de serveurs Jupyterhub (portail web) ; du Système Informatique Distribué d'Évaluation en Santé (projet SIDES) ; de l'intégration continue en liaison avec la plateforme GitLab ; du test pour l'ordonnanceur de conteneurs Kubernetes ou encore du logiciel de calcul et de visualisation... Des usages très variés que les autres plateformes avaient des difficultés à proposer. Nova, une nouvelle plateforme est née.
Biographie de l'auteur
Nicolas Gibelin est ingénieur système réseau et développement à L'UMS GRICAD (Grenoble Alpes Recherche - Infrastructure de Calcul Intensif et de Données) créée pour répondre aux enjeux des besoins scientifiques actuels en matière de calcul intensif et de données. Il est impliqué dans les infrastructures réseaux et serveurs, responsable entre autres des services de Notebook et de la plateforme de cloud Nova.
71 - Service de messagerie électronique en université : si vis pacem, para bellum
Daniel Le Bray - Quentin DesreRésumé
Malgré l’émergence et la place grandissante de nouveaux outils de communication, la messagerie électronique reste de nos jours un medium hautement utilisé par les communautés universitaires et scientifiques. Pour faire face aux risques et répondre aux besoins et aux exigences de disponibilité, de fiabilité et de résilience, il nous a semblé nécessaire de repenser notre architecture de service et de l'inscrire dans une démarche pérenne et évolutive. Si la réflexion que nous avons menée repose sur des stratégies (planification, anticipation) et des tactiques (quelles actions entreprendre ? Comment réagir ?), ce n’est pas dans les écrits de Sun Tzu que nous nous sommes plongés, mais sur les bonnes pratiques et l’expérience acquise au fil du temps. La sécurité d’un serveur ou la disponibilité d’un composant ne sont pas des points isolés ; c’est par une approche globale que nous avons repensé l’ensemble de notre service de messagerie afin qu’il cible au mieux les attentes en termes d’usage, d’exploitation et d’évolution. Nous avons donc étudié, testé et retenu plusieurs solutions techniques pour adresser les multiples formes que recouvre ce service. Cette démarche nous permet aujourd'hui de répondre aux divers aspects de la politique d’usage (CAA, SPF, DKIM, DMARC), de la politique d’accès (SASL, Postgrey, Postfwd), de la séparation des flux (différents périmètres d’accès, les échanges SMTP, les manipulations des boîtes aux lettres), du filtrage d’hôtes (IPTables, Fail2Ban), de la protection des échanges (Rspamd, SpamAssassin, ClamAV), de la disponibilité (serveurs physiques et virtuels, KeepAlived), de la supervision et du maintien opérationnel des processus (statistiques, journaux, Monit).
Biographie de l'auteur
Daniel Le Bray et Quentin Desré sont tous deux ingénieurs d'études à l'université Le Havre Normandie au sein du pôle Systèmes & Réseaux du Centre de Ressources Informatiques. Assurant tous les deux les fonctions d'administrateur systèmes, Daniel Le Bray est en poste depuis 1997 et Quentin Desré a rejoint l'équipe en 2011. C'est en binôme qu'ils exercent leurs missions de gestion quotidienne de l'infrastructure de virtualisation, des solutions de stockage et de divers services numériques pour l'établissement. Parmi les nombreux projets dont ils sont en charge, ces dernières années ont surtout été marquées par l'intégration de la virtualisation et l'évolution importante du service de messagerie de l'établissement.
111 - AFUL : Association Francophone des Utilisateurs de Logiciels Libres
Jean Thiery - Jean-yves Jeannas121 - FG-iRODS : un service de gestion de données pour les communautés scientifiques à l’échelle nationale et européenne basé sur une infrastructure fédérée
Jérôme Pansanel - Catherine Biscarat - Raphaël Flores - Pierre Gay - Christine Gondrand - Emmanuel Medernach - Patrick Moreau - Vincent Nègre - Geneviève RomierRésumé
Depuis plusieurs années, l’ensemble des disciplines scientifiques font face à un déluge de données hétéroclites, tant par les moyens d’acquisition (collecte de terrain, expérimentation, modélisation, simulation, etc), que par les formats. La simple fourniture de ressources de stockage en quantité suffisante ne suffit plus aux nouvelles questions scientifiques. Il est nécessaire d'être en mesure d'exploiter ces ressources aujourd'hui et dans le futur. Ainsi l'extension de la volumétrie, la conservation et le partage des données doivent être pensés dès le début des projets pour répondre aux principes du FAIR. Afin d’accompagner et de répondre aux besoins des chercheurs sur ces thématiques, plusieurs laboratoires partenaires de France Grilles ont développé depuis 2012 une expertise sur le logiciel iRODS et mis en place une infrastructure fédérée s’appuyant sur des ressources géographiquement distribuées pour fournir un service de gestion de données, dénommé FG-iRODS. Ce service mutualisé, dimensionné pour accueillir des projets de petite et moyenne envergure (jusqu'à quelques centaines de téraoctets), permet notamment de : • traiter de grands volumes de données, éventuellement distribuées sur plusieurs sites, collaborer entre sites partenaires équipés d'infrastructures et de matériels hétérogènes ; • disposer d’une organisation physique des fichiers transparente pour les utilisateurs et gérer finement leurs droits d'accès aux fichiers ; • rechercher des données par requêtes sur les métadonnées et faciliter la gestion de grandes collections de données ; • accéder à distance aux données (ligne de commande, interface Web, API, montage réseau). L'article détaillera les objectifs du projet FG-iRODS, la nouvelle infrastructure matérielle et logicielle, le service proposé et un cas concret d'utilisation.
128 - Automatisation et délégation de traitements avec Rundeck
David Chochoi - Guillaume LavilleRésumé
Dans les SI actuels, les services sont de plus en plus distribués sur de nombreux serveurs, physiques ou virtuels. Comment avoir une vue synthétique des tâches programmées et leur résultat d'exécution ? Comment déléguer certaines actions sensibles de manière isolée, sécurisée et traçable ? Comment automatiser facilement des scénarios et ainsi économiser des manipulations, sans compromettre la sécurité ? Rundeck est une réponse à toutes ces problématiques, testée et mise en place au sein du rectorat de l'Académie de Dijon (environ 300 serveurs pour 46 000 personnels). Cet outil permet de définir des groupes de serveurs, de travaux, d'utilisateurs et de règles d'accès pour gérer le fonctionnement quotidien d'une infrastructure informatique. Il fournit également une API REST permettant son intégration dans des applications tierces existantes ou créées pour répondre à des besoins spécifiques. Cette présentation longue s'articule en cinq parties : - Les facteurs ayant amené à cette réflexion et le choix de Rundeck, dans le cadre d'un SI académique en production ; - Une présentation de l'outil Rundeck, ses fonctionnalités et ses caractéristiques techniques ; - L'illustration de la manière dont il peut s'intégrer à des processus de travail existants par le biais de trois exemples ; - L'utilisation de l'API REST Rundeck pour lancer des tâches et surveiller leur statut dans des applications développées localement ; - La sécurisation des serveurs, des travaux et des règles d'accès, en relation avec le RSSI académique. En conclusion, elle se focalise sur les évolutions supplémentaires que peut encore apporter Rundeck dans le cadre d'une structure institutionnelle comme le rectorat.
Biographie de l'auteur
David Chochoi est membre de l'équipe système de la DSI du rectorat de Dijon et a pour principales responsabilités l'installation et la maintenance des applications du ministère de l'Éducation nationale au niveau académique mais aussi celles de la messagerie, l'authentification, la fédération d'identité et la sécurité applicative. Guillaume Laville, après une expérience significative dans le calcul scientifique, travaille désormais dans la même équipe que David. Ses responsabilités incluent l'hébergement des développements réalisés par l'académie, des sites web d'établissements et de communication, ainsi que la gestion des plateformes de travail collaboratif (OnlyOffice, Owncloud, serveur de médias, projet académique). Il intervient également lors de la validation de sécurité des nouvelles applications du SI.
129 - Et si on arrêtait les cRonneries ?
Pierre GambarottoRésumé
Le moyen historique de programmer l'exécution d'une tâche est de prendre une référence à une horloge : c'est ce que permet l'utilisation du vénérable Cron. Les administrateurs système subissent tous l'épreuve initiatique de la création ou de la gestion d'une ligne dans une crontab, et la connaissance généralisée de cet outil explique en partie son utilisation intensive. Cron déclenche un script à date fixe : un événement temporel. Or les systèmes actuels sont répartis : il faut être capable de coordonner des tâches sur plusieurs serveurs. Par exemple, la création de la représentation informatique d'une personne dans un logiciel de RH doit engendrer la création des identifiants de connexion dans l'annuaire d'entreprise de type LDAP ou Active Directory, et ensuite engendrer la création d'un compte fichier et d'un compte mail sur 2 autres serveurs. Les événements à considérer ne sont donc plus relatifs à une horloge, mais à des étapes d'un processus logiciel : la fin d'une tâche sur un serveur doit déclencher le début d'une autre sur un autre serveur. De telles architectures sont appelées asynchrones. Les outils présentés permettent aux administrateurs système de mettre en place et de gérer des successions de tâches sur des architectures asynchrones. Deux techniques sont exposées, chacune développée autour d'un exemple : - se rappeler que sous Unix, tout est fichier : inotify à partir du noyau Linux 2.6.13 permet de réagir aux événements rythmant le cycle de vie d'un fichier : création, modification du contenu, modification des métadonnées, suppression; - utiliser des hooks git : la publication d'une nouvelle version de fichiers du dépôt git entraîne l'exécution d'une tâche.
Biographie de l'auteur
D'abord développeur et formateur dans le privé, Pierre Gambarotto a développé ses compétences d'ASR et sa barbe à l'ENSEEIHT (N7) dans le département sciences du numérique. Il est maintenant responsable informatique de l'IMT (Institut de Mathématiques de Toulouse) et formateur dans le DU développeur d'applications fullstack, à Toulouse INP Formation Continue. Ses centres d'intérêt sont la programmation fonctionnelle, l'automatisation et les architectures système.
132 - Quelle solution de stockage choisir dans la prochaine décennie ?
Alain Heinrich - Sébastien Finkbeiner - Laurence Moindrot - Simon Piquard - Xavier PierreRésumé
Depuis 2014 l’Université de Strasbourg a fait le choix de déployer la solution de stockage cloud "Seafile" pour l'ensemble de ses personnels et des étudiants. Si cette solution donne entière satisfaction concernant le simple stockage et le partage de documents individuels, nous nous sommes aperçus qu'elle avait cependant plusieurs limites. Seafile est également peu utilisé dans les autres établissements de l'ESR en France, ce qui rend difficile les échanges avec la communauté. Nous avons aussi noté ces derniers mois une forte attente de nos utilisateurs de plus de fonctionnalités autour du stockage, notamment autour de solutions de travail collaboratives et d'échange autour du stockage et ce avec leurs collègues de laboratoire, d'établissement, mais également leurs collègues d'autres établissements partenaires en France et dans le monde. Nous avons initié une nouvelle étude pour faire évoluer notre service de stockage pour tenter de trouver une solution répondant aux nouveaux besoins. Plusieurs possibilités s'offrent à nous : * continuer à investir dans Seafile ; * attendre les premiers résultats de la solution proposée par Renater ; * lancer un projet communautaire avec d'autres établissements de l'ESR. Ce poster a pour but d'échanger avec la communauté sur l'aboutissement de notre étude et également d'engager une réflexion plus générale sur les partenariats de demain, incluant : * un état de l'art des solutions en 2019 ; * un bilan des fonctionnalités demandées par nos utilisateurs ; * une cartographie des solutions déployées dans l'ESR (Nextcloud, OneDrive, Seafile, ...) ; * un état de l'art des interopérabilités entre les solutions de stockage actuelles.
135 - Administration système reproductible avec GNU Guix
Julien LepillerRésumé
N'avez vous jamais eu une mise à jour rendant votre système inutilisable ? Une installation qui ne se comporte pas exactement comme ce que vous attendiez ? L'impression qu'il n'y a rien d'autre à faire que réinstaller pour revenir dans un état correct ? Oseriez-vous lancer un Ctrl-C pendant une mise à jour ? Avez-vous déjà réussi à reconstruire deux fois exactement le même système ? À comprendre la différence entre deux systèmes ? GNU Guix est un gestionnaire de paquets transactionnel qui peut être utilisé sur n'importe quel système basé sur Linux existant ou en tant que distribution indépendante. Nous verrons que Guix s'appuie sur trois propriétés importantes pour fournir tous ses avantages : des mises à jour transactionnelles, des paquets reproductibles bit-à-bit et une configuration centralisée, intégrée, déclarative et sans état. GNU Guix permet aussi de gérer des environnements temporaires à la VirtualEnv ou durables à la apt-get, sous forme de simples profils, de conteneurs, de machines virtuelles ou de systèmes d'exploitations complets tout en gardant à chaque fois l'approche déclarative, reproductible et transactionnelle. Nous verrons comment Guix peut vous aider à gérer et garder sous contrôle différents services et logiciels, et comment cela peut aider les administrateurs systèmes aussi bien que les chercheurs qui veulent reproduire le travail de leurs collègues. Nous verrons parmi les possibilités de Guix, comment obtenir des environnements logiciels de manière reproductible, sans l'opacité inhérente aux « images de conteneurs », tout en restant interopérable avec Docker ou Singularity.
166 - HPC Singularity : reproduire et partager vos simulations
David Brusson - Michel Ringenbach - Vincent LucasRésumé
La démarche scientifique se base sur la reproductibilité des expériences. Pour des expérimentations exigeant d’importantes ressources de calcul, l’utilisation d’un supercalculateur devient nécessaire. Se posent alors les problématiques des différences d'architecture, de système, de bibliothèques, et des communications entre nœuds de calcul qui sont des notions complexes à appréhender. La résolution de ces problématiques présente un double intérêt : • Permettre facilement de rejouer les simulations et par conséquent permettre la validation des résultats de recherche ; • Permettre l'ouverture des ressources de calcul à un plus grand nombre d'utilisateurs, grâce à une simplification de l’usage. Pour répondre à ces besoins, l’Université de Strasbourg offre depuis 2019, au sein de son mésocentre, un service de conteneurs basé sur la technologie Singularity. Ces conteneurs incluent à la fois le système d'exploitation, les bibliothèques spécifiques, et le logiciel scientifique compilé. Ainsi, cela permet de répondre à une majorité des problématiques de reproductibilité et de simplicité de diffusion. Dans cet article, nous présentons les technologies de conteneurs, les avantages de Singularity dans un environnement HPC et l’interopérabilité de ce dernier avec Docker. Puis, nous détaillons l’architecture ainsi que les performances obtenues. La conclusion résume ces fonctionnalités et présente les évolutions des usages attendues : une réelle facilité d'utilisation avec des simulations réutilisables et améliorables facilement.
167 - Évolution de l'outil de gestion de configuration et d'orchestration à l'Université de Strasbourg
Ludovic Hutin - François MénabéRésumé
Ansible est un outil libre de gestion de configuration et d'orchestration multi-systèmes. Simple et accessible, il s'est progressivement imposé comme un standard du marché. Utilisé à l'Université de Strasbourg, Ansible est devenu un prérequis au déploiement des nouvelles applications. Historiquement, plusieurs outils ont été utilisés pour gérer les configurations (voire l'orchestration) de nos différentes infrastructures et applications. Depuis deux ans, nous faisons converger nos outils vers un unique : Ansible. Nous montrerons tout d’abord la démarche projet utilisée pour mener cette transformation complexe et chronophage qui nécessite d'impliquer tous les acteurs, de les former, et surtout d'uniformiser les pratiques. Nous montrerons ensuite les prérequis nécessaires au déploiement et à la mise en production cohérente des VM, intégrées au système d’information et sécurisées. Pour cela, nous avons développé plusieurs modules Ansible et nous supportons désormais un nombre conséquent d'OS (Windows, CentOS, RedHAT, Ubuntu). Notre playbook de déploiement de VM a été adapté afin de l’intégrer à Ansible Tower, ce qui permet à tous nos collègues de créer des VM disposant de toutes les configurations de base. Enfin, nous présenterons Ansible Tower. Cet outil nous on a fait gagner en qualité, en efficacité et permit de déléguer à tous nos collègues des tâches complexes. Nous avons développé un plugin d'inventaire dynamique nous permettant de l'interfacer avec GLPI, ce qui nous offre la possibilité d’exécuter en masse des actions sur un ensemble de serveurs en fonction de critères de recherches avancés.
Biographie de l'auteur
Ludovic Hutin de la direction du numérique (DNum) est responsable du pôle « Plateforme cloud et intégration » au département "Infrastructures" de l’Université de Strasbourg. Ce service a pour principale mission le déploiement et le maintien en condition opérationnelle de l’intégralité des moyens d’infrastructures d’hébergement de l’établissement (serveurs virtuels, bases de données, hébergements web, etc.). Le pôle contribue aussi au déploiement des applications opérées par les différents services de la DNum. François Ménabé exerce son activité au sein du même service que Ludovic. Ses responsabilités d’administrateur système le font intervenir plus particulièrement sur les infrastructures de stockage, de sauvegarde, de virtualisation, d'authentification et depuis peu, il s’implique sur des sujets liés à de l’intégration applicative.
5 - Définition et mise en place d’une architecture de tests de non-régression automatisée, exemple avec GLPI.
Cédric Villa - Denis BuffenoirRésumé
Qui n'a jamais eu besoin de tester une application après un changement de version ? Qui n'a jamais cassé une application après un changement de version ou de configuration ? Dans un contexte où les applications évoluent rapidement et régulièrement, chaque changement introduit un risque de régression dans les processus. Pourtant, ces évolutions sont souvent nécessaires et attendues par les utilisateurs. Faire des tests à chaque changement est rébarbatif et répétitif ; ce qui est couteux en temps et source d'erreurs. Corriger une défaillance introduit souvent d'autres dysfonctionnements. Les tests effectués de manière automatisée et reproductible, garantissent une conformité du résultat. L'automatisation permet l’instantanéité d'un retour et de valider le plus tôt possible qu'il n'y a pas de régression. Une stratégie de tests orientée « agile », dans une démarche DEVOPS, nous a conduit à faire évoluer ces tests facilement et rapidement. Plus on capitalise des tests, plus on couvre le périmètre des régressions possibles. Les outils que nous avons utilisé sont simples et accessibles. L'integration continue nous a permis d'automatiser l'exécution de ces tests, dans un environnement proche de la production. Elle a permis également de générer des rapports exploitables par les membres du projet. Ce que nous avons fait dans le cadre de tests pour l'application GLPI, pourra être utilisé pour d'autres applications de notre système d'information. Ce retour d’expérience et sa mise en place, peut donner à tous les bases d'une solution adaptée à vos applications.
Biographie de l'auteur
Cédric Villa est un ingénieur DevOps originaire de Nancy où il a travaillé au sein du service informatique du LORIA (Laboratoire Lorrain de Recherche en Informatique et ses Applications) de 2005 à 2017. Il a développé et maintenu une partie des outils collaboratifs et institutionnels du laboratoire (gestion de parc, sites institutionnels, plateforme d’intégration continue, reporting décisionnel). Il a ensuite rejoint la DSI Inria à Sophia Antipolis en 2017 pour réaliser la mise en oeuvre de la solution de gestion de parc centralisée d’Inria. Un des défis du projet a été d’assurer le déploiement et l’évolution régulière de l’outil dans son écosystème, tout en testant l’absence de regression de manière continue. --- Denis Buffenoir est Chef de projet à la DSI d’Inria. Ses derniers projets menés s’orientent vers des briques d'un SI Patrimonial unifié. Les différents projets qu’il a menés dans ce cadre sont: Un inventaire Physique d’Inria, gestion de parc avec GLPI, la gestion du patrimoine immobilier d’Inria avec un outil qui intègre le BIM (Building Information Modeling). La gestion de parc pourra entrainer deux autres projets en devenir: autour d'un outil de reporting décisionnel et d’un outil de test de non régression.
82 - Un reverse-proxy pour l'API Docker
Anthony BaireRésumé
Dans le cadre du service d'Intégration Continue de l'Inria, nous déployons des exécuteurs Docker pour gérer un grand nombre de petits projets. Ce service utilise également Jenkins et Gitlab-CI. La solution Docker a été retenue car elle est facile à adopter pour nos utilisateurs et car elle permet un redimensionnement du service à la demande. De plus l'API stable nous offre un point de contrôle pour optimiser et reconfigurer la plateforme sans avoir à impliquer les utilisateurs. Nous avons développé un reverse-proxy pour l'API Docker Engine. Au delà des fonctionnalités de base (authentification et contrôle d'accès), nous avons expérimenté des utilisations plus avancées : * application de politiques (injection de paramètres dans la configuration des containers, interdiction de l'utilisation d'options privilégiées, ...) * isolation des utilisateurs par la mise en place de namespaces * cache transparent des connexions HTTP et HTTPS, afin de réduire le trafic avec les archives de packages populaires (debian, fedora, maven, ...). Le cache de HTTPS est rendu possible en installant une autorité de certification temporaire à l'intérieur des containers au moment de leur création. L'outil est développé en python3 asynchrone, extensible (de nouvelles politiques et méthodes d'authentification peuvent être ajoutées sous forme de plugins) et intégré dans l'image boot2docker (utilisée par docker-machine) pour faciliter son déploiement sur un cluster de machines pour Gitlab CI. Cet outil est expérimenté depuis octobre 2018 sur notre plateforme de qualification. Nous allons très prochainement l’utiliser sur notre plateforme de production. Nous vous présenterons rapidement les différentes fonctionnalités de l'outil ainsi qu'un retour d'expérience sur son utilisation.
87 - SANTORIN : Retex sur une infrastructure DevOps
Yann Guernalec - Cédric Leproust - Fragnol FlorentRésumé
La DSII de l'Académie de Rennes est responsable au niveau national de la conception et de la gestion du SI des examens et concours. Dans un contexte de réduction des moyens et d'accroissement de notre périmètre d’action, nous menons une transformation technologique et organisationnelle qui a pour objectifs d’augmenter la qualité de service et de diminuer les temps d’interruption liés aux mises en production. Pour atteindre cette cible, nous avons fait le choix de l’automatisation du déploiement dans une approche « DevOps ». L’application nationale SANTORIN, déployée sur un cluster Kubernetes, a été choisie comme pilote de cette mutation Cette application a géré le 17 et 19 juin 2019 la dématérialisation des copies des épreuves anticipées du Baccalauréat. 200 000 copies ont été ainsi numérisées et mises à disposition des correcteurs. Le prochain objectif pour la gestion du baccalauréat 2020, est de gérer 800 000 copies en une demi-journée et 30 millions de copies à l’année. Cette transformation de nos méthodes de déploiement, nous permet aujourd’hui de déployer de nouvelles versions en quelques minutes, sans interruption de service. Et d'offrir un service "scalable" de répondre à la montée en charge de manière automatique. Dans l'esprit « DevOps », « Nous », un membre du Développement SANTORIN et un membre des Ops, allons vous présenter l’infrastructure de déploiement que nous avons mis en place et la transformation qu’elle a entraînée chez nous et vous exposer les problématiques que nous avons rencontrés.
104 - L’agilité dans l’organisation d’un projet agile : l’expérience du projet PC-Scol
Michel Allemand - Ludovic BoudyRésumé
PC-Scol est le projet commun à l’AMUE et à l’Association Cocktail de refonte du système d’information scolarité et vie étudiante pour l’ensemble des établissements de l’enseignement supérieur et de la recherche. PC-Scol s’inscrit dans un cadre de travail collaboratif en co-construction avec plusieurs établissements universitaires. Nous décrirons l’organisation opérationnelle qui a été mise en place pour gérer un projet de co-construction d’une solution logicielle de cette ampleur en mode agile avec des équipes de développements issues de l’ESR et localisées dans plusieurs universités réparties sur l’ensemble du territoire. Les méthodes agiles que nous utilisons ; méthode « Scum » au niveau de chaque équipe et méthode « Safe » au niveau de l’agilité à l’échelle pour coordonner le travail des équipes seront présentées. L’usine logicielle et l’architecture technique retenues seront également détaillées pour illustrer l’interdépendance entre les méthodes, les outils et l’organisation. Les difficultés que nous avons rencontrées depuis le début du projet en 2017, les accompagnements que nous avons proposés et les évolutions de l’organisation qui ont été réalisées seront également présentés pour montrer qu’il est aussi nécessaire d’être agile dans l’organisation et le pilotage d’un projet agile. Des perspectives dans la co-administration de la solution Pégase qui est développée par le projet PC-Scol concluront notre exposé.
Biographie de l'auteur
Michel Allemand : Titulaire d’un doctorat de l’Université de Provence et un d’un PostDoc à l’IRISA, Michel Allemand a débuté sa carrière comme enseignant chercheur en informatique à l’Université de Nantes en 1997. Après avoir créé la DSI de l’Université de Nantes en tant que conseiller Système d’Information il en a pris la direction en 2008. Michel Allemand a ensuite évolué vers des missions nationales comme expert à la MIPNES et suivi des cadres de cohérences. Depuis 2017 Michel Allemand a pris la direction du projet PC-Scol, commun à l’AMUE et à l’Association Cocktail, de construction du futur SI scolarité des établissements de l’ESR. Ludovic Boudy : 18 ans d’expérience dans le développement de solutions informatiques. Développeur, chef de projet, puis directeur de projet au sein du groupe Figaro, Ludovic Boudy est depuis 2017 directeur opérationnel du projet PC-SCOL. Depuis 8 ans, il pilote et accompagne des équipes agiles dans le développement d’application de gestion et de sites web.
140 - Déploiement d’applications automatisé : Vers un nouveau modèle où le client devient acteur
Frédéric Colau - David Rideau - Didier Mathian - Fabien Belcayre - Delphine SalléRésumé
Dans un contexte inter-universitaire (5 établissements) où le nombre d’applications et de serveurs ne cesse de croître exponentiellement, alors que le temps et les ressources humaines se raréfient, il est devenu primordial d'automatiser au maximum les déploiements. Souhaitant élargir l'approche DevOps jusqu’aux acteurs métier, nous avons impliqué l'AMOA en plus des administrateurs système et des développeurs. Pour cela nous avons mis en place des outils permettant de gagner en autonomie et en temps tout en diminuant les actions manuelles répétitives, en limitant les erreurs humaines et en respectant le niveau de maîtrise technologique de chacun. Sur le plan technique, Vmware, Rundeck, Puppet, Ansible, Maven et Gitlab-CI ont été imbriqués les uns avec les autres pour déployer plus de 10 applications pour 5 établissements sur presque 100 machines virtuelles, ce qui facilite la reproductibilité des actions et améliore la fiabilité du service rendu. Parmi les applications automatisées se trouvent les services numériques Apogée livrées par l'AMUE, Cas, Ecandidat, Pstage, Pod, ou encore Ade. Nous avons formé nos responsables métier à l'usage de Gitlab, afin qu'ils participent directement à l'édition des fichiers de configuration de leurs applications, ainsi qu'à l'usage de Rundeck pour exécuter facilement des tâches complexes en production. Nous présenterons l'architecture de déploiement automatisé mise en œuvre et détaillerons le cas d'une application métier. Nous nous attacherons également à montrer les bénéfices humains que nous en retirons avec une délégation opératoire qui responsabilise tous les acteurs, des équipes qui interagissent davantage et qui s’inscrivent dans une démarche valorisante d'amélioration constante des processus.
Biographie de l'auteur
====== Frédéric COLAU : ====== Tombé dans la potion magique, euh ... dans l’informatique quand il était tout petit, Frédéric en a fait sa passion qui le suit tant au travail qu’à la maison. Après des études en télécommunications et réseaux puis en administration des systèmes d’informations et divers petits boulots, il a atterri au SIMSU il y a 13 ans sur un poste d’administrateur système et base de données. Rapidement orienté vers la virtualisation pour multiplier les machines, c’est tout naturellement qu’il s’est ensuite tourné vers l’automatisation et l’approche devops afin d’orchestrer ce ballet incessant de déploiement d’application. ====== David RIDEAU : ====== David n'est pas véritablement informaticien de naissance, car dans les processus d'automatisation, il cherche davantage à satisfaire son désir contemplatif en regardant les machines travailler toutes seules. Ce qui le questionne plus profondément, c'est la façon d'inciter les acteurs d'un projet à dépasser toutes les formes de barrières individuelles, hiérarchiques et fonctionnelles pour aller vers la grande idée d'une oeuvre collective. Sa conviction est que l'intégration "humaine" devrait toujours être au premier plan, car c'est elle qui est génératrice de sens et de valeur. Et que la véritable clé pour atteindre des objectifs réside dans ce paradoxe de ne jamais les mettre en avant. ====== Delphine SALLE : ====== Delphine est ingénieure en informatique de gestion. A l'université depuis 1987, elle a travaillé dans différents domaines d'activité mais depuis 1991, c'est principalement autour de la scolarité. Toutes ses réalisations sont interU. Ce qu'elle préfère, c'est manipuler des données : elle était responsable de la reprise des données scolarité lors de la fusion de l'université de Grenoble. Longtemps responsable qualité dans son service, sa priorité c'est l'efficacité et la fiabilité. Elle déteste intervenir en pompier. Formée à la méthode Agile, elle anticipe, œuvre avec patience et constance pour atteindre ses objectifs en ayant à cœur d'assurer les impératifs d'exploitation. ====== Fabien BELCAYRE : ====== Après un Dut informatique ou il a pu découvrir en partie les métiers d'aministrateurs Système et réseau, ainsi que développeur et chef de projet, Fabien a terminé ses études par une licence professionnelle spécialisé en sécurité des systèmes d'information. Il est passé par deux emplois dans le privé, et depuis 8 ans maintenant il s'emploie à partager ses compétences et savoir faire au sein du SIMSU ou sa mission principale est l'administration de système d'exploitation et la création de scripts et routines qui visent à simplifier et fiabiliser l'exploitation du parc de serveur au quotidien. ====== Didier MATHIAN : ====== Didier est au service du SIMSU depuis 1999. Princpalement interessé par le système et le stockage, il oeuvre pour avoir des architectures homogènes, simples à maintenir, fiables et performantes. Il est aussi rassuré lorsque ses systèmes similaires sont installés strictement de la même manière. Il aime retrouver ses petits alias, ses petits outils, sur tous les systèmes où il intervient.
50 - IdP de Shibboleth vs CAS d’Apereo, « le meilleur des mondes possibles »
Ludovic Auxepaules - Anass ChabliRésumé
Cette présentation a pour objectif de faire ressortir les possibilités offertes par les dernières versions des deux serveurs d’authentification les plus répandus dans la communauté Enseignement Recherche : l’IdP Shibboleth et le serveur CAS d’Apereo. Nous reviendrons tout d’abord sur les principes généraux de l’IdP3 et des serveurs CAS (5.x et 6.x). Nous aborderons ensuite leurs principales évolutions récentes. Enfin, nous identifierons leurs différences et leurs similitudes de fonctionnement : les deux peuvent gérer notamment les protocoles SAML et CAS, le recueil du consentement de l'utilisateur, l'authentification MFA, etc. De ces éléments se dégagera légitimement la question suivante : Puis-je mettre en œuvre une seule brique technique dans mon SI, c’est-à-dire soit un serveur CAS d'Apereo, soit un IdP Shibboleth qui fait tout ? Nous apporterons des éléments de réponse à cette question à travers plusieurs cas d’utilisation et d’intégration de l’IdP3 Shibboleth et du serveur CAS, « seul et ensemble » : -- Utilisation d’une seule brique technique pour « tout faire » : * IdP Shibboleth utilisé en tant que serveur CAS * Serveur CAS utilisé en tant qu’IdP SAML -- Utilisation des deux briques ensemble : délégation de l’authentification de l’un à l’autre : * « Cassifier » l’IdP Shibboleth (Shibboleth en client CAS 2.0) * « Shibboliser » CAS (CAS en mode SP SAML) Nous évoquerons enfin également des nouveaux usages possibles de ces deux applications.
Biographie de l'auteur
Au sein du pôle Sécurité des Systèmes d’Information de RENATER, Ludovic Auxepaules et Anass Chabli font partie l'équipe Fédération qui opère la Fédération Éducation-Recherche.
57 - MyAcademicID pour une identité étudiante européenne unique pour l’enseignement supérieur
Hervé BourgaultRésumé
Le projet MyAcademicID vise à implémenter les briques de base pour l’adoption d’une identité étudiante européenne pour l’enseignement supérieur. L’objectif principal est de permettre aux étudiants en situation d’échange à l’étranger de s’identifier et s’inscrire électroniquement dans les établissements d’enseignement supérieur et d’accéder à différents services. L’infrastructure technique vouée à supporter cette identité étudiante européenne sera le résultat de l'intégration d'eduGAIN avec l’identifiant étudiant européen (European Student Identifier ou ESI), et de l’établissement de passerelles avec le cadre d’interopérabilité eIDAS, en cours de déploiement par les institutions européennes. Le projet vise en outre à intégrer cette identité étudiante européenne dans quatre e-services liés à la mobilité étudiante : Online Learning Agreement, Erasmus+ Dashboard, Erasmus+ Mobile App et la plate-forme PhD Hub. En complément, l’identité étudiante nationale portugaise (Estudante ID) sera rendue interopérable avec l’identité étudiante européenne, démontrant ainsi la faisabilité pour un fournisseur d’identités de niveau national de rejoindre le modèle de solution proposé. Enfin, l’intégration future de la plate-forme Erasmus Without Paper est également prévue. Le passage à l’échelle du projet et le potentiel d’intégration de l’identité étudiante européenne avec une myriade d’autres services (en ligne et hors ligne), non seulement ouvrent la voie à une mobilité facilitée des étudiants et à un renforcement du statut étudiant à travers l’Europe, mais font aussi de MyAcademicID un élément clé de l’initiative carte étudiante européenne (European Student Card Initiative) lancée par la Commission Européenne.
59 - Mise en place d’un référentiel d’identités à l’échelle d’un Campus : une approche fédérative
Gautier Auburtin - Johann HollandRésumé
La gestion d’identités fait l’objet depuis plusieurs années d’une préoccupation croissante au sein des établissements d’enseignement supérieur. Longtemps, la gestion des comptes utilisateurs fut limitée aux besoins d’authentification. Elle a ensuite été élargie aux problématiques d’autorisations et enfin étendue aux fédérations d’identités. En parallèle, la gestion d’identités s’est consolidée autour de processus et référentiels métiers puis sur la base de référentiels communs. Aujourd’hui pièce maîtresse d’un système d’information dont elle assure la sécurisation, l’homogénéité et la fluidité, la gestion d'identités reste toutefois déterminée par des logiques et frontières institutionnelles, à l’exception des fédérations d’identités. Le Campus Condorcet, nouveau campus de recherche en SHS, regroupe une centaine d’unités de recherche issues de onze établissements. Il constitue un ensemble aux frontières floues au sein duquel les résidents quotidiens comme plus largement les usagers présentent des affiliations croisées. Dans ce contexte, la mise en place d’un référentiel d’identités commun à l’ensemble du Campus rencontre plusieurs difficultés : identifier la source ; déterminer des affiliations précises ; assurer les entrées et sorties du référentiel ; mettre en place des autorisations ; assurer l’accès aux services du Campus ; sécuriser l’authentification. Le référentiel d’identités du Campus Condorcet cherche à apporter des réponses innovantes à ces enjeux. Il s’appuie sur des processus et des technologies fédératives (référents identités, fédération d’identités) et permet à l’usager de choisir son identité source lors de l’inscription. Il mobilise les référents pour les invitations et les validations (entrées) fournissant ainsi un référentiel de structures hébergées et d’autorisations qui permet l’accès aux services du Campus par un mécanisme de délégation d’authentification auprès de l’annuaire d’origine.
Biographie de l'auteur
Johann Holland est ingénieur spécialisé en stratégies d’innovation et en politiques numériques. Engagé sur le projet de Campus Condorcet depuis 8 ans, il en dirige le pôle numérique. Sa mission actuelle lui permet de mettre à profit et de développer, dans un contexte de gouvernance partagée et de mutualisation de ressources, les compétences qu’il a pu acquérir au préalable en participant à différents projets ou missions de conseil. Son expérience auprès des institutions publiques européennes (Europeana à travers les projets CASPAR et Athena) ou nationales (le CNRS, l’INA, l’IRI du Centre Georges Pompidou), ainsi qu’au service d’entreprises privées (Orange, EDF R&D) l’ont rendu familier des problématiques d’usages et d’accompagnement du changement, d’innovation permanente, d’ingénierie numérique et de transfert de technologies. Documentaliste de formation, Gautier Auburtin est aujourd'hui responsable des systèmes d'information au Campus Condorcet où il travaille depuis 4 années à la construction des systèmes d'information et des référentiels SI. Son expérience des systèmes d'information web et documentaires (CNRS, EPHE, INHA) s'est étendue à la gestion des identités et des annuaires, aux besoins d'authentification et aux offres de services en ligne.
90 - Annuaires pour l’enseignement supérieur et la recherche – Nouveautés SupAnn
Aï-eng Bompoil - Benoit Branciard - Pierre-olivier Terrisse - Sylvain BrachotteRésumé
La mise en œuvre des recommandations SupAnn (Annuaires pour l'Enseignement Supérieur) au sein des différentes structures d'enseignement supérieur et de recherche est aujourd'hui incontournable. L'offre toujours croissante de services et applications numériques a rendu nécessaire la mise en place d'un cadre de cohérence pour l'exploitation et l'échange des données de type annuaire, tant via les mécanismes de fédération d'identités que pour les usages locaux. Les recommandations SupAnn ambitionnent de définir un cadre technique et un vocabulaire commun répondant à ces besoins. Depuis la première publication de SupAnn en 2003 et ses mises à jour de 2008 et 2009, les évolutions des services numériques dans les établissements engendrent de nouveaux besoins de structuration, d'échange et de maîtrise des données. La généralisation des référentiels, l'interconnexion à FranceConnect ainsi que la mutualisation d'applications nécessitent de faire évoluer SupAnn. À cet effet, le GIP RENATER a relancé en octobre 2016 un groupe de travail réunissant des représentants d'établissements de l'ESR. Ses travaux ont mené à la publication en septembre 2018 d'une nouvelle version de SupAnn, enrichissant la précédente sur trois axes : 1. Interopérabilité ; 2. Représentation de nouvelles informations ; 3. Rédactionnel et formalisme . Le poster proposé au JRES 2019 présente, à travers les activités du groupe de travail, la version courante de SupAnn, ses usages, les travaux en cours et à venir. Cet échange privilégié permettra de découvrir SupAnn, de s'y intéresser, de le commenter, et peut-être de s'investir dans ses prochaines évolutions.
123 - MFA et 2FA dans l’IdP Shibboleth, le serveur CAS d’Apereo et les Fédérations
Ludovic Auxepaules - Guillaume RousseRésumé
Avec la montée du phishing et des usurpations de comptes, l’authentification SFA (Simple Facteur), basée en général sur un couple « identifiant/mot de passe », a atteint ses limites. De plus en plus de systèmes d’authentification proposent une sécurité renforcée en utilisant plusieurs facteurs d’authentification : on parle alors d’authentification forte (ou MFA pour Multi-Factor Authentication). Elle est reconnue pour améliorer la sécurité lorsqu’elle combine au moins deux facteurs d’authentification distincts (2FA) parmi ces trois catégories courantes : * un facteur mémoriel « ce que l’on sait » (un code PIN...), * un facteur matériel « ce que l’on a » (une clé U2F...), * un facteur corporel « ce que l’on est » (authentification biométrique). La sécurité peut être améliorée également en ajoutant d'autres facteurs : réactionnels, de lieu ou temporels... Dans cette présentation, nous abordons l’authentification forte dans le contexte des deux principaux systèmes d’authentification utilisés dans la fédération Education-Recherche : l’Identity Provider (IdP) de Shibboleth et le serveur CAS d’Apereo. Nous y exposons tout d'abord les choix, les cas d’usage et les niveaux de confiance (ou LoA Level of Assurance) qui justifient la mise en place de l’authentification renforcée. Nous précisons également les contraintes et les difficultés liées au renforcement de l’authentification à l’échelle des fédérations d’identités. Ensuite, nous décrivons différentes mises en œuvre possibles du MFA dans l’IdP Shibboleth et dans le serveur CAS, ainsi que les nouveaux profils SFA et MFA publiés par REFEDS (the Research and Education FEDerations group). Enfin, nous concluons par les avancées introduites par WebAuthn (Web Authentication) du W3C en 2019.
Biographie de l'auteur
Ludovic Auxepaules et Guillaume Rousse ont tous les deux découvert la Fédération Éducation-Recherche comme administrateurs de services d'authentification, au sein de leurs établissements d'origine (Sorbonne Université pour l'un, l'INRIA pour l'autre). Ils travaillent aujourd'hui comme opérateurs de cette même fédération, au sein du pôle Sécurité des Systèmes d’Information de RENATER.
126 - Quarantaine et remédiation : communiquer pour ne plus bloquer
Sébastien Beaudlot - Jade Tavernier - Maxime CharpenneRésumé
Les raisons extraordinaires d’interagir avec nos utilisateurs sont variées : validité de leurs identifiants, signature de la charte d’usage des services numériques, comptes bloqués pour envoi de spam, etc. De par la criticité de ces événements ou la nécessité d’interagir avec les usagers, les procédures associées sont souvent manuelles et les identités numériques sont parfois impactées (blocage ou suspension). Les agents intervenant sur les identités numériques et ceux étant en contact avec leurs propriétaires ne sont pas les mêmes. La communication est alors laborieuse et les conséquences parfois préjudiciables. Le processus d’authentification étant un passage obligé pour tous les usagers, c’est le moment idéal pour leur présenter de l’information et leur permettre de se débloquer en toute autonomie. En associant des procédés de mise en quarantaine et de remédiation, nous tentons d’adresser des problèmes communs à toutes les populations par la communication : * La quarantaine capte l’attention au moment de la saisie des identifiants ; * L’application d’information-remédiation permet le suivi des blocages et de leur résolution. Autour des services communs et éprouvés que sont CAS et LDAP, nous avons construit une application et une API pour répondre à ces deux besoins : mise en quarantaine et remédiation autonome.
Biographie de l'auteur
Sébastien Beaudlot est administrateur système, réseaux et téléphonie au Pôle DevOps d'Avignon Université. Jade Tavernier est développeuse au sein du Pôle DevOps à Avignon Université depuis 2014. Maxime Charpenne est en poste à Avignon Université depuis 2008. Après avoir été administrateur système pendant 9 ans, il encadre depuis 2017 le Pôle DevOps.
151 - Un Hub pour les fédérer tous
Sophie Schaal - Long Ya - Sébastien Simenel - Olivier AdamRésumé
Dans l'académie de Rennes, depuis 2007, nous mettons à disposition un espace numérique de travail (ENT) « Toutatice » pour tous les acteurs de l'éducation du premier et second degré en Bretagne, soit environ 1,5 million d'utilisateurs. Comment identifier simplement les agents, les élèves et leurs représentants légaux pour l'accès aux offres de services numériques portées par le ministère, l'académie, les collectivités et les établissements en tenant compte de la diversité des protocoles d'authentification et de l'APIsation des applications ? En 2015, nous présentions une solution permettant de fédérer des applications SAML2 et CAS derrière un même fournisseur de services avec un module CASSHIB permettant la "shibbolethisation" d'un serveur CAS. Depuis 2017, dans le cadre du projet PIA IPANEMA, nous faisons évoluer cette solution pour prendre en compte le protocole OIDC - OpenID Connect, le consentement utilisateur et renforcer sa disponibilité. La solution réalisée à ce jour, bâtie sur shibboleth version 3, est interopérable avec l'ensemble des fournisseurs d'identités académiques et nationaux. Elle est performante, hautement disponible et supervisée. Elle est compatible avec les protocoles standards actuels : CAS, SAML2 et OpenId Connect. Elle a permis de connecter l'ENT Toutatice à EduConnect, nouveau fournisseur d'identité de l’Éducation Nationale, ainsi qu'au GAR, le service d'accès aux ressources numériques porté par le Ministère. Nous vous présenterons le résultat de nos travaux en détaillant l'architecture, l'implémentation et le cheminement ayant conduit à la mise en œuvre de ce véritable HUB d'identités multi-protocolaires.
Biographie de l'auteur
Sophie Schaal, ingénieur informatique, a intégré le domaine de l’éducation depuis maintenant 9 ans. Elle travaille ces dernières années en tant que chef de projet transverse au sein de la Direction des Systèmes d’Information et de l’Innovation de l’académie de Rennes, la DSII. Depuis 3 ans, elle coordonne les travaux rennais du projet national d’expérimentations « Identité numérique et relation usager » IPANEMA. C’est dans ce cadre qu’elle collabore sur le projet de HUB identité territorial avec : * Olivier Adam, RSSI et directeur technique de la DSII. Porteur du projet IPANEMA et fournisseur perpétuel du backlog projet. En gros c’est le patron ! * Sébastien Simenel, ingénieur système spécialisé dans l’intégration production et super héros de l’équipe. Éteint un feu en production comme personne. * Long Ya, ingénieur en développement ayant basculé du côté obscur du devops suite à son intégration dans l’équipe. Shibboleth n’a plus de secret pour lui !
152 - Itinéraire d'un système de gestion d'identités numériques au sein d'un EPST
Antoine Gallavardin - Christophe Monrocq - Guillaume PerréalRésumé
Fusion, migration, externalisation, changement de nom... Autant d'étapes dans la vie d'un établissement public scientifique et technique (EPST) et donc autant d'impacts sur le système d'information. Les systèmes de gestion des identités et des comptes sont évidemment concernés, car ils pilotent toutes les informations des utilisateurs, internes et externes, afin de leur assurer un service efficace (messagerie, accès aux applications). En 10 ans, Irstea a changé de nom, intégré la fédération RENATER, migré de ActiveDirectory 2003 à ActiveDirectory 2012, externalisé sa messagerie sur Partage, mis en place un système Single Sign On et intégré le système SINAPS. Et en cette fin d'année, Irstea s'apprête à fusionner avec l'INRA pour donner naissance à l'INRAE. Après une présentation du contexte d'Irstea, nous reprendrons les grandes étapes de cette évolution, avec pour chacune d'elles un retour d'expérience technique allant de l'abandon de l'une ou l'autre des solutions, à l'adaptation de briques existantes voire au développement en interne ou externe. Nous continuerons sur un retour d'expérience méthodologique et stratégique regroupé en 4 axes : * l'interopérabilité entre les différents composants du système d'information ; * l'usage important des ressources proposées par la communauté ESR (Partage pour la messagerie, SINAPS pour le pilotage des identités, supann pour la structuration des données) ; * la sollicitation des réseaux de prestataires, des réseaux métiers et communautaires ; * le principe de la cathédrale et du bazar. Nous terminerons sur la présentation de la solution mise en place et de ses évolutions dans le cadre du futur institut INRAE.
Biographie de l'auteur
Arrivé en 2006 à IRSTEA comme technicien support, Antoine Gallavardin est maintenant responsable informatique du centre Irstea de Lyon Villeurbanne et adjoint du responsable des moyens communs informatiques de l'IRSTEA. Après avoir fait évoluer le système d'information de son centre (170 personnes), il participe à l'évolution de celui de l'institut (1500 personnes) sur les aspects "annuaire", "authentification", "messagerie" et "services Web". Parmi ses réalisations, on trouve la chaîne d'approvisionnement de compte depuis le système d'information RH, la mise en place d'un SSO ainsi que la création d'un "drive" institutionnel. Il a travaillé sur la gestion des identités avec Christophe Monrocq, responsable des outils de gestion de l'Irstea, et Guillaume Perréal, "lead developer" d'une unité de développement. Adepte des logiciels libres pour leur qualité et évolutivité, il contribue par du code, du rapport de bug et parfois par de la stratégie. Cette préférence ne met pas à l'écart les autres logiciels, et il s'efforce d'assurer leur interopérabilité en étant le moins impactant possible sur les aspects techniques et humains.
157 - Anonymisation des identités numériques de l'Éducation nationale
Marc Berhaut - Sophie Schaal - Olivier Adam - Bertrand BlaessingerRésumé
Le RGPD est entré en vigueur le 25 mai 2018. Il exige que les organismes mettent en œuvre les « mesures techniques et organisationnelles appropriées » pour être en mesure de démontrer leur conformité. Il est donc plus difficile d'avoir des données représentatives de nos usagers sur les plateformes de test, de qualification et de développement de nos infrastructures, sans les mesures de sécurité nécessaires. Cependant, les activités de test et de développement doivent pouvoir se faire. Pour répondre à cet enjeu, l'académie de Rennes a mis en œuvre une solution de production de jeux de données représentatifs de la communauté éducative et de ses structures. Ces jeux de données sont utilisés afin de qualifier l'offre de services portée par le ministère de l'Éducation nationale, l'académie de Rennes et les collectivités territoriales : EduConnect, ENT territorial et le GAR. Aujourd'hui, l'académie de Rennes est identifiée par le ministère de l'Éducation nationale comme le fournisseur du service de production de jeux de données anonymisées et est sollicitée régulièrement pour de nombreux projets pilotés par des acteurs internes et externes, nationaux et territoriaux. Nous vous présenterons la solution que nous avons développée - Légère et reposant uniquement sur des technologies open-source, elle implémente un procédé d'anonymisation des données réelles issues de nos SI. Et nous montrerons notamment comment elle répond aux exigences de volumétrie, de cohérence et de reproductibilité. Elle permet également une grande adaptabilité au type de SI source et aux format et grammaire de la donnée.
Biographie de l'auteur
Marc Berhaut, ingénieur informatique, a intégré le domaine de l’éducation depuis maintenant 9 ans. Il travaille ces dernières années en tant qu’architecte applicatif au sein de la Direction des Systèmes d’Information et de l’Innovation de l’académie de Rennes, la DSII. Il intègre il y a 2 ans l’équipe du projet national d’expérimentations « Identité numérique et relation usager » IPANEMA. C’est dans ce cadre qu’il pilote le projet d’anonymisation des identités de l’éducation nationale sur lequel il collabore avec : * Olivier Adam, RSSI et Directeur Technique de la DSII. Porteur du projet IPANEMA et fournisseur perpétuel du backlog projet. En gros c’est le patron ! * Bertrand Blaessinger, administrateur identités, grand maitre de l’annuaire applicatif de l’ENT académique * Sophie Schaal, coordinatrice projets sur tous les fronts, en cours de clonage
158 - Des millions d'utilisateurs avec Shibboleth : comment ça se passe (bien) ?
Nicolas Romero - Pierre Sagne - Vincent LeblancRésumé
La gestion des identités et des accès dans l'Éducation Nationale fait face à plusieurs défis. D'abord technique : les produits déployés dans la trentaine de centres de production ne répondent plus aux besoins, ou sont en fin de vie. Ensuite organisationnel : les cloisonnements académiques sont remis en questions par les mutualisations et il est nécessaire de gérer les identités et les accès à un niveau régional, voire national. Et enfin conjoncturel : il faut ouvrir les SI à de nombreux publics et partenaires, pour la dématérialisation des démarches ("Action Publique 2022"), la saisie des résultats de contrôles continus par les lycées agricoles ou à l'étranger (réforme du baccalauréat). Dans ce contexte, l'Éducation Nationale a engagé la réurbanisation de ses infrastructures de gestion des identités et des accès. Ainsi, un dispositif national, EduConnect, qui s'appuie sur Shibboleth IdP et Shibboleth SP, remplace désormais les dispositifs de gestion des identités et des accès des parents et élèves propres à chaque académie. C'est le point d'entrée unique de tous les parents et les élèves vers tous les services éducatifs, portés par l'Éducation Nationale ou par des tiers (ENT, applications de vie scolaire, ...) Il doit donc être hautement disponible puisqu'on cible plusieurs dizaines de millions d'utilisateurs par jour. De même, les infrastructures de gestion des identités et des accès pour les personnels évoluent, avec toujours la nécessité d'homogénéiser le déploiement sur tous les centres de production. Cette présentation décrit cette démarche et aborde les problématiques rencontrées, notamment sur la haute disponibilité et la montée en charge. L'industrialisation avec Ansible sera également abordée.
Biographie de l'auteur
Nicolas Romero est responsable du Pôle national de compétences Identités et Accès du Ministère de l'Education Nationale et de la Jeunesse. Cette équipe porte l'expertise sur la gestion des identités et des accès, les authentifications, et la fédération d'identité pour le ministère et les académies. Nicolas travaille sur ces sujets depuis une dizaine d'années. Pierre Sagne est membre du Pôle national de compétences Identités et Accès du Ministère de l'Education Nationale et de la Jeunesse. Il fait partie de cette équipe depuis le premier jour puisqu'il en est historiquement le premier membre. Expert technique, il est notamment spécialisé sur la fédération d'identité. Vincent Leblanc est également membre du Pôle national de compétences Identités et Accès du Ministère de l'Education Nationale et de la Jeunesse. Il a longtemps travaillé sur les tests de montée en charge auparavant, et apporte depuis quelques années ses compétences à l'équipe.
29 - Datacenter : le chant du CoC
Romaric David - Gabrielle Feltin - Paolo BertoldiRésumé
Dans un contexte de réchauffement climatique et d’éco-responsabilité, nous constatons une explosion de la consommation électrique des datacenters. En cause : le Big Data, l’IA, le cloud-computing, la densification des infrastructures IT... Est-ce irrémédiable ? Que puis-je faire dans mon datacenter ? Il existe un outil formidable pour ça, tout droit venu de la commission européenne : le Code de Conduite sur l'efficacité énergétique des datacenters (CoC, en abrégé). Que diable se cache-t-il derrière ce nom austère ? Le Code de Conduite référence 200 bonnes pratiques très concrètes, qui évoluent depuis 2008 et qui concernent la conception et l’exploitation des datacenters. Nous nous proposons de vous en familiariser avec la logique et les bonnes pratiques, afin de vous en fournir un premier guide de lecture. Avec ce poster, Ecoinfo et le porteur du Code de Conduite à la commission européenne souhaitent vous encourager à rejoindre le club des participants au Code de Conduite. Notre communauté commence à s'y intéresser. Vous bénéficierez de retours d’expérience sur la démarche de l'Université de Grenoble (la première en France), de l'Université de Bourgogne Franche-Comté, et de l'Université de Strasbourg. Vous aussi, devenez un acteur éclairé de l'amélioration de l'efficacité énergétique des datacenters ! Ecoinfo peut également vous appporter de l'aide sur votre datacenter : démarche d’audit, accompagnement pour l’appropriation et la mise en oeuvre du Code de Conduite. Vous en saurez plus en venant discuter avec nous autour du poster ! En conclusion, nous vous livrerons toutes les clefs du Code de Conduite pour que vous aussi, vous puissiez crier « CoC »orico !
31 - SUMiT Académies - Offre de service nationale iTop
Claude Saive - Anny LavanantRésumé
SUMiT(SUite de Management iT) est un projet ambitieux dans sa démarche communautaire de co-construction et d’harmonisation à l’échelle nationale des outils ITSM (Information Technology Service Management) au sein du ministère de l’éducation nationale et de la jeunesse. Sur la base de la version iTop de l’éditeur français COMBODO, la Direction du Numérique pour l’Education (DNE) s’engage aux côtés des académies pour garantir la cohérence d’une offre de service ITSM nationale et fédérer l’ensemble des réalisations et expertises. SUMiT Académies, c’est : - Une offre packagée embarquant la gestion des processus incident, demande, problème, configuration et catalogue. - La capacité à rester « maître » des instances iTop, en termes de paramétrage, personnalisation et reporting. - L’intégration complète d'iTop avec DigDash, outil de Business Intelligence. - La dynamique créatrice de la démarche communautaire pour faire évoluer l’offre. - Une méthodologie et des outils d’accompagnement au changement et au déploiement de la solution. La présentation permettra d’évoquer plus spécifiquement: - Le reporting intégré DigDash et les tableaux de bord de type « drill down ». - Le modèle de données commun de CMDB (Configuration Management DataBase) et les collecteurs. - L'interface générique permettant la connexion de SUMiT Académies aux autres outils ITSM du marché. La DNE a la volonté de faire évoluer la solution iTop par l’ajout de fonctionnalités sans toucher le cœur du produit et de reverser ses contributions à la communauté (collecteurs CMDB, base de connaissances).
Biographie de l'auteur
Anny Lavanant travaille au ministère de l’éducation nationale et de la Jeunesse, au sein de la Direction du Numérique pour l’Education et, plus particulièrement, du Centre National de service. Son parcours professionnel l’a amenée à travailler tant en académies (chef de projet système d’information, DSI adjointe) que dans des équipes nationales de développement et diffusion des applications examen et concours ainsi qu’au centre de responsabilité technique supervision. Sa connaissance approfondie des contextes académiques et nationaux ainsi que du système d’information du ministère de l’éducation nationale et de la jeunesse l’ont amenée à assurer les fonctions de chef de projet national gouvernance et exploitation des services IT. Depuis septembre 2017, elle pilote le projet SUMiT (SUite de Management iT) qui est un projet ambitieux dans sa démarche communautaire de co-construction et d’harmonisation à l’échelle nationale des outils ITSM (Information Technology Service Management) au sein du ministère de l’éducation nationale et de la jeunesse. C’est à ce titre qu’elle va vous présenter l’offre SUMiT proposée aux académies par la DNE. ici.
38 - UX Design et Design Thinking à l'Education Nationale - Mettre l'utilisateur au coeur du projet, oui mais comment ?
Jerome Le Tanou - Marine GoutRésumé
Cette présentation est un retour d’expérience sur la mise en place d’une démarche d’amélioration de l’expérience utilisateur (UX) des outils de travail au sein de l'Éducation Nationale. Nous rendrons compte de notre expérience et de nos apprentissages liés à la mise en place de cette démarche sur les outils numériques d’une multitude d’agents aux profils très variés (1,2M d’agents pour plus de 100 métiers différents). Le parti pris de s’intéresser à l’expérience utilisateur est une hypothèse fondatrice de notre initiative. Elle est particulièrement singulière du fait de notre position centrale dans l’organisation qui nous éloigne de fait des utilisateurs que nous cherchons à aider. Pour y arriver, nous avons mis en place une démarche de Design Thinking qui a permis d'identifier avec les utilisateurs les difficultés à résoudre dans le cadre de la refonte des environnements de messagerie et de collaboration, avant de leur proposer des prototypes de solutions adaptées. Dans le cadre de ce projet nous nous sommes appuyés sur la démarche de Design Thinking développée par l'Université de Stanford : * Empathize (Observer) * Define (Définir) * Ideate (Imaginer) * Prototype (Prototyper) * Test (Évaluer) Parallèlement à cette démarche, nous avons entrepris de constituer une plateforme d'innovation ouverte permettant de coproduire des améliorations de l’UX de produits libres et open source. Après un an de mise en place de l'approche de Design Thinking et d'UX Design permettant d'associer pleinement les personnels dans un esprit de co-construction sur deux projets aux approches distinctes et complémentaires, nous nous proposons de partager notre retour d'expérience sur cette tentative innovante.
Biographie de l'auteur
====== Marine GOUT ====== Je suis chef de projet pour la direction du numérique de l’éducation nationale. Après des études en informatique, multimédia puis sciences cognitives dans les années 2000, j’ai enseigné pendant 5 ans en établissement scolaire. J’ai ensuite entrepris une thèse en sciences humaines et sociales que j’ai soutenue en 2015 à l'université Toulouse 3 Paul-Sabatier. Pendant ce parcours doctoral, j'ai eu la chance de m'impliquer dans la vie institutionnelle de mon université et de découvrir le monde des politiques publiques du numérique. C'est ce qui m'a amenée à rejoindre la DINSIC après ma thèse, pour travailler sur la qualité des démarches en ligne pendant deux ans. Avant de retourner dans l’éducation nationale, je me suis intéressée aux pratiques de protection de la vie privée des utilisateurs de smartphones, et à l’utilisabilité des dispositifs de protection de la vie privée dans le cadre d’un post-doctorat à l'université de Rennes 2. Tous ces éléments mis bout à bout m’ont amenée à m’intéresser de très près au design, qui est pour moi un assemblage nouveau de savoirs et pratiques familiers. ====== Jérôme LE TANOU ====== Passionné par l'informatique depuis 1981, date à laquelle j'ai reçu de façon complétement improbable un ZX81, cette passion ne m'a jamais quitté et a orienté ma formation initiale vers un cursus d'ingénieur en informatique option Réseaux. Lors de mon entrée dans le monde du travail, juste après mon diplôme obtenu en 1997, c'était l'explosion de l'Ethernet et de l'IP. J'ai donc eu la chance de contribuer aux déploiements d’infrastructures conséquentes (à destination de plusieurs dizaines de milliers d'utilisateurs) avec des technologies émergentes qui sont aujourd'hui des standards indiscutables. J'ai longtemps œuvré dans le domaine des infrastructures (Réseaux/Télécoms/Systèmes/DC/...), que ça soit dans l’enseignement supérieur (Université de Grenoble), dans la recherche (CNRS) ou à l’Éducation nationale (Académie de Grenoble). Mon travail a toujours été guidé par un seul objectif : rendre le service le plus satisfaisant et le plus accessible à l'utilisateur. Ça a toujours été un jeu intellectuel plaisant de triturer des technologiques parfois complexes pour rendre un service de façon la plus transparente et simple possible à l'utilisateur. C'est toujours dans cet état d'esprit, qu'en 2018, j'ai rejoint la Direction du Numérique (DNE) au Ministère du l’Éducation nationale en tant que chef de projet pour participer à la définition de l’Environnement de Travail Numérique Agent (ETNA) à destination de l’ensemble des 1.2 millions personnels de l’Éducation nationale et qui a conduit à la démarche que l'on vous présente avec Marine.
84 - Diagnostiquez l'impact environnemental de votre parc informatique avec EcoDiag, un service EcoInfo !
Béatrice Montbroussous - Jonathan Schaeffer - Gabriel Moreau - Françoise Berthoud - Gabrielle FeltinRésumé
Vous entendez beaucoup parler des problématiques environnementales, vous avez peut-être initié des attitudes positives personnelles, vous avez une volonté de groupe dans votre unité, et vous vous interrogez sur l'impact environnemental du numérique de votre milieu professionnel... EcoDiag est là pour vous ! Le GDS EcoInfo du CNRS a fait le constat que l'évaluation des impacts environnementaux du numérique est complexe et peut décourager les meilleures volontés, c'est pourquoi nous vous proposons une méthode simple et efficace pour estimer le bilan carbone de votre parc au travers de ce nouveau service basé sur notre expérience. Nous avons choisi un indicateur compréhensible par tous : les émissions de CO2e (Équivalent CO2). À partir d'un inventaire des services numériques utilisés et des matériels informatiques de l'unité, notre méthodologie et notre expertise vous permettront d'établir une estimation globale des émissions de GES. Cette évaluation sera accompagnée de préconisations et de ressources (fiches, guide, matériel) pour intégrer ce travail dans un rapport type Hcéres ou les utiliser dans le cadre d'un bilan carbone plus global à votre structure. L'apport de conseils vous permettra d'afficher une politique de réduction des GES générés par le numérique dans les années suivantes ! Retrouvez nous devant le poster pour découvrir et repartir avec notre outil d'évaluation des impacts environnementaux des activités numériques de votre unité. Vous aurez les ficelles et un guide de préconisation pour maîtriser et diminuer ces impacts dans une démarche d'amélioration continue. Des exemples concrets réalisés dans deux unités illustreront notre démarche et vous démontreront la facilité d'utilisation du service EcoDiag.
114 - les problèmes environnementaux de la terre d'innovation et de partage
Marc ChantreuxRésumé
Dans une première partie, je poserai les questions qui permettent selon moi de cerner les différents aspects du problème: * Quels sont les impacts écologiques de la production de matériels et logiciels informatiques? * Quels sont les tendances et les ordres de grandeurs? * Quelle culture avons-nous développé autour de cette même production ? * En quoi cette culture est-elle intimement liée aux problèmes auxquels nous devons faire face et aux solutions qu'il va bien falloir finir par accepter ? * Quels sont les moyens qu'il faudrait idéalement mobiliser pour l'émergence et l'adoption de ces solutions ? Dans une seconde partie, j'évoquerai la pluralité des acteurs et des messages qui sont véhiculés autour de l'écologie du numérique et tenterai d'en dégager un tronc commun, factuel et exploitable pour bâtir une stratégie. Puis j'en viendrai à la stratégie elle-même et ceci en développant plusieurs axes: * notre responsabilité immédiate à la fois comme que producteur et fournisseur de services mais aussi dans les architectures * la conviction qui est mienne que la communauté ESR, si le politique nous en donne les moyens, est plus que tout autre capable de concevoir, développer et promouvoir des innovations nécessaire à une "transition numérique" respectueux du cahier des charges que nous fixent les réalités écologiques. Enfin j'expliquerai la nécessité de sensibiliser des maintenant nos hiérarchies aux nécessaires changements de culture qui devront d'abord s'effectuer au sein même de nos services.
Biographie de l'auteur
libriste depuis circa 1996 (parce que je crois que la collaboration sera toujours plus productive et vertueuse que la collaboration et la compétition), membre de la communauté universitaire depuis 2002 (par envie de contribuer à la recherche), végétarien anti-spéciste depuis circa 2007 (parceque je crois que tout être capable des mêmes émotions et sensations que moi a droit aux mêmes égards), je me tiens loin des sentiers battus. Co-auteur d'articles JRES 2005 et 2017, co-organisateur et speaker de conférences (the perl conference europe, fosdem, pycon.fr, osdc.fr, journées perl, ...) et hackathons, contributeur occasionnel à de nombreux logiciels libres, fondateur du lug de Casablanca en 1997 (le premier au Maroc ?) IGE à la direction du numérique de l'unistra depuis 2012, Floss evengelist à Renater depuis 2018.
155 - Mise en place d'un nouvel environnement de travail social et collaboratif : Une approche centrée utilisateur
Simon Piquard - Stéphane SallesRésumé
Tous les établissements d'enseignement supérieur et de la recherche sont aujourd'hui dotés d'un E.N.T. L'ambition de l'Université de Strasbourg (Unistra) a été d'intégrer une notion sociale à cet outil. En cohérence avec une volonté ministérielle de favoriser le soutien à la réussite étudiante, mais aussi une conjoncture actuelle d’innovation et de révolution numérique nécessitant la création de digital workplace, l’Unistra a mené des concertations et des études d'outils auprès de l’ensemble de ses utilisateurs. Sa volonté profonde étant de les repositionner au cœur de son offre de services numériques. Ces études ont abouti au choix d'un outil : Ernest La mise en place de ce nouvel environnement numérique et social de travail, dans lequel les informations sont profilées, et qui permet d'affiner cette personnalisation grâce à des mécanismes divers, fournit un canevas propice à la réussite. En effet, en devenant lui-même acteur de son environnement, et plus seulement consommateur, l’apprenant s'approprie les outils mis à sa disposition et développe son réseau, ce qui constituent quelques-uns des facteurs majeurs de la réussite universitaire. Ces enjeux se retrouvent pour les personnels, enseignants et chercheurs, qui demandent des outils pour fluidifier travail collaboratif et communication. L’adhésion forte à Ernest est un facteur clé réussite pour sa mise en place. Ainsi, nous avons décidé de mettre l’accent sur la conduite du changement, selon trois principes : Impliquer - Communiquer – Former. Du recueil du besoin avec les utilisateurs, jusqu’à la mise en place, nous montrerons comment nous avons décidé de mettre l’utilisateur au centre de notre démarche tout au long du projet.
Biographie de l'auteur
===== Simon Piquard ===== "Si j'étais né il y a 2000 ans, je serais né à Rome" Il l'énonce et tout s'éclaire, nous comprenons immédiatement que Simon est originaire de Nancy en Meurthe-et-Moselle, ville lumière, centre du monde moderne. Côté étude, c'est pas Byzance comme dirait l'autre. Il obtient à la surprise générale un baccalauréat ES, puis, en 2005, malgré le scepticisme ambiant, un BTS Action Commerciale en contrat de qualification. Tour à tour manager dans un centre de profit, responsable d'un service traiteur, attaché-commercial, il erre ensuite dans des jobs qui ne l'intéressent guère, déménage 3 fois en 3 ans pour au final s'installer dans la charmante et pétillante capitale alsacienne, Strasbourg. Peu de temps après son arrivée il intègre l'Université de Strasbourg naissante (2009), en tant que coordinateur pour le déploiement de la nouvelle carte étudiante et professionnelle "Mon Pass Campus Alsace". Il est content, les chefs aussi, il reste. 10 années plus tard, il a accumulé quelques casseroles, et surtout beaucoup d'expériences en tant que chef de projet MOA (Pass Campus Alsace, Copieurs MFP en libre service, PGI scolarité Alisée, box/cloud unistra Seafile, Partage unistra, Contrôle d'accès Physique dans les bâtiments), correspondant communication, formateur et responsable conduite du changement (Windows 10, E.N.S.T Ernest). Il vient à vous aujourd'hui humblement, pour vous parler conduite du changement, usages & approche utilisateurs sur les récents projets Ernest ("Mise en place d'un nouvel environnement de travail social et collaboratif : Une approche centrée utilisateur"), Partage ("Migration de la messagerie de l'Université de Strasbourg vers une solution mutualisée d'outils collaboratifs") et outils de stockage (poster "Quelle solution de stockage choisir dans la prochaine décennie ?"). Avé
160 - Une gestion des tickets adossée à une CMDB
Matthieu Fuchs - Alexandre CombeauRésumé
Lier un système de ticket à une CMDB, une combinaison gagnante ? Une CMDB (base de données de gestion des configurations) est un outil permettant de faire apparaître les différents éléments de configuration du Système d’Information, ainsi que les liens entre eux. Pour remplacer notre système de gestion des tickets, lancé en 2009, la Direction du Numérique de l’Unistra a voulu combiner 3 processus ITIL, la CMDB (iTop), la gestion des tickets et les lier par le biais du catalogue des services. À l’origine, peu de liens existaient entre le système de ticket et notre CMDB. Aussi, notre flux de 25 000 tickets annuels et nos nombreux éléments de configurations étaient totalement dissociés. Le couplage plus important entre ces deux systèmes doit permettre une meilleure analyse des tickets grâce à iTop, tout en ayant une meilleure maîtrise des éléments du SI grâce aux tickets. La forte implication du porteur du projet nous a permis de nous approcher au mieux des attentes du métier en termes de gestion de tickets. De plus la mise en place d’un portail utilisateur permet à toute la communauté universitaire (environ 90 000 utilisateurs) de créer des demandes plus riches, adaptées aux besoins de résolution, nous permettant d’améliorer notre qualité de service. Lors de la présentation, nous vous présenterons le travail effectué pour adapter iTop via des modules communautaires mais aussi par la création de modules spécifiques. Nous évoquerons également les retours des équipes en charge du traitement des tickets ainsi que des utilisateurs à travers le portail.
Biographie de l'auteur
Matthieu Fuchs, 24 ans, Titulaire d'un master Ingénierie Logiciels et Connaissances en septembre 2019. 3 ans en alternance sur le projet de la mise en place d'une CMDB : iTop à la DNum. Développeur au département Développement, Intégration et Paramétrage au sein de la direction du numérique (DNum) de l'Unistra.
165 - CMDB : Avantages et Méthodologie
Cédric Lelu - François Alberici - Delphine MichautRésumé
La DSI du rectorat de l’académie de Besançon a outillé en 2014 sa réorganisation à l’aide du centre de service iTop. Cet outil professionnalise le fonctionnement de la DSI en modélisant tous les processus métier internes. Nous abordons ici son pilier, la base de données de gestion de configuration (CMDB) aussi bien dans la façon dont nous l’avons implémentée que dans tous ses cas d’usage au sein de notre SI. La conception de la CMDB a induit des choix de standardisation et la formalisation de l’organisation de la DSI. Ainsi les rôles ont été clarifiés et les CIs, composants du Système d’Information, définis : briques techniques d’une infrastructure informatique, applications, utilisateurs … Notre modèle standard permet de réaliser la jonction entre la vue applicative de l’utilisateur et la vue système et fournit ainsi une vision globale de notre SI à tous les acteurs de la DSI. La CMDB est alimentée à partir des sources de données de référence des SI. Via une application locale, elle est utilisée dans tous les processus métiers de la DSI. Nous montrons dans cet article comment elle a été interfacée aux outils classiques de l’ingénieur système et comment est réalisée, sur simple détection de nouveaux CIs, la propagation, pour action, des éléments d’information dans les outils interfacés. La cartographie exhaustive fournie par la CMDB et son alimentation temps réel permet la prévisions d’impacts ou la réalisation de diagnostics précis instantanés (intervention, MCO,… ). La CMDB est un outil puissant de fiabilisation de la production. Son utilisation est une pratique clé pour le responsable des infrastructures.
Biographie de l'auteur
François Alberici est ingénieur de recherche à la DSI du rectorat de Besançon depuis 2000. Adjoint au directeur des systèmes d'information, il est responsable du pôle Production et Opérations et notamment des équipes systèmes et réseaux. Son travail se focalise donc sur les aspect organisationnels. Adjoint RSSI, il est également particulièrement attentifs aux problématiques concernant la sécurité et la qualité des systèmes d'information. Cédric LELU, docteur en Sciences Pour l’Ingénieur en 2002 rejoint l’équipe Systèmes et Réseaux du Service Informatique de l’Académie de Besançon en 2003 en tant qu'ingénieur de recherche. Il s’occupe alors de la supervision, de la mise en production des applications nationales (DB2 / weblogic / apache) et des systèmes VMWARE et du stockage SAN, et développe une première CMDB. En 2014, lors de la réorganisation de la Direction des Systèmes d’Information, il continue de travailler dans son équipe, renommée Production et Opération, Infrastructures, et participe à la mise en place des différentes procédures qualités.