ASTELAB 2008

Lieu : Salon de Villepinte Date : 2008

Prix Adhérent :

Prix Non Adhérent :

Informations complémentaires :

ASTELAB 2008 au salon de Villepinte:

 

L’accord de partenariat entre l’Aste et Exposium a connu avec l’intégration d’ASTELAB dans Mesure Expo sa 3ème édition 2008 et confirme  la tendance à la « dynamique retrouvée » des deux  premières  éditions :  stabilité du nombre de nos exposants  mais accroissement du nombre de visiteurs de 30% par rapport à 2007.

D’autre part, nous constatons que les «complémentarités et synergies évidentes entre Mesurexpo et Astelab », correspondent bien à une réalité palpable et mesurable.

 

Les visiteurs ont été nombreux sur le stand de l’ASTE et se sont tous intéressés à la présentation de la Bibliothèque en Ligne de l’ASTE.

 

 

 

__________________

 

LE COLLOQUE ASTELAB

 

Yves Berthaud , ENS Cachan/LMT , a présidé la session « extensométrie ».

F. Hild  (LMT Cachan) a proposé un exposé complet démontrant les   possibilités offertes par les méthodes de mesures de champ à base de   corrélation d’images numériques en mécanique des solides. Il a   proposé à la fois le principe des méthodes d’identification inverse   et de nombreuses applications dans différents domaines couvrant les   matériaux métalliques, élastomères, en sollicitations statiques ou   dynamiques, à température ambiante ou non. Des applications à des   champs avec discontinuités (fissuration) ont été présentées incluant
la tomographie.

M. Buisson (ingénieur au CETIM) lui a succédé pour évoquer un   problème très délicat et incontournable en laboratoire de mécanique   (industriel ou de recherche) : celui des perturbations   électromagnétiques. Il a très bien détaillé les différentes sources
provenant de la physique des jauges de déformation et des câblages.
En s’appuyant sur des cas concrets il a montré comment il est   possible de limiter (voire d’éliminer) ces effets. Il propose dans   son texte de nombreux cas industriels.

Enfin M. Louis Patrice BUGEAT de la société INTESPACE nous a fait   partager son expérience de fabrication et de contrôle d’un dispositif   pour le contrôle d’antennes de satellites. Ces antennes doivent être   justifiées avec des tolérances dimensionnelles de l’ordre de quelques   centièmes de millimètres. M. Bugeat a insisté sur toutes les   contraintes à intégrer : température, conditions de fonctionnement,   champ de vision des caméras, optique, … et sur le fait que le   système doit être implanté dans un centre spatial indien (problème du
transport et de la réception sur site). Cet exposé a montré les   possibilités de techniques de type caméras numériques associées à des   cibles positionnées sur l’objet à contrôler.

 

Nicole NAHON, DGA/CMD , chargée de normalisation défense, a présidé la session « Normalisation internationale ».

Les trois conférences présentées par le Centre de Normalisation de Défense relatives aux organisations de normalisation internationales étaient de grande qualité malgré la faible participation et ont donné lieu à des échanges questions-réponses. L’aisance des conférenciers chacun dans leur domaine d’intervention a estompé la complexité des sujets exposés.

La première conférence a brossé l’organisation de la normalisation de défense au Royaume Uni, le rôle du « DStan Helpdesk » qui  intervient dans la vérification des références normatives appelées dans les contrats passés par le ministère, et rappelé le contenu de la norme DEF-STAN 00-35, qui est le manuel de l’environnement pour les équipements militaires.

La deuxième conférence a exposé l’organisation de l’OTAN (Conseil de l’Atlantique Nord, ambassadeur et représentant militaire, hauts comités/organisations OTAN, comité militaire, commandements stratégiques) et la place qu’y prend la normalisation, pilier de l’interopérabilité. Le processus de développement d’une norme OTAN a également été évoqué.

La troisième conférence a fait le point sur l’organisation de la normalisation européenne, en cours de mise en place à l’Agence Européenne de Défense, et ses thèmes d’intérêt. L’outil EDSIS est un forum européen accessible sur INTERNET, qui permet d’échanger sur des projets de normes défense à l’initiative d’une nation. La normalisation est un levier pour renforcer la base industrielle et technologique de défense ; la coopération en matière de normalisation est vivement encouragée.

 

Christian Lalanne ( Lalanne Consultant) a présidé la session mécanique.

La session mécanique comportait quatre exposés sur des sujets variés.

Le premier, proposé par Dassault Aviation et Sopemea, portait sur l’intérêt de mener des simulations numériques en parallèle avec des essais de qualification en vibrations. Avant l’essai, la simulation permet de préparer et d’anticiper au mieux les difficultés liées à ce type d’essai. En particulier, le comportement de l’équipement fixé sur le pot vibrant peut être rendu similaire à celui observé sous avion par la conception d’un outillage souple dédié (servant d’interface entre le lance-missiles et l’excitateur).

Pendant l’essai, cette approche permet de calculer des informations non disponibles directement par la mesure (efforts, accélérations, contraintes, déplacements…) et permet une meilleure surveillance et un meilleur pilotage de l’essai.

 

Le deuxième exposé (M. J. Merlet, Intespace) présentait les travaux entrepris dans le cadre du projet SACER (Système Autonome Communicant Embarqué en Réseau). Il s’agit de concevoir un système de mesure intelligent, autonome et sans fils destiné à remplacer les instrumentations et système d’acquisition existants. Le système sera développé en intégrant les besoins et contraintes de mesures qui se retrouvent aussi bien pour des essais en vol que pour des essais d’environnement de satellites. Il s’agit d’un projet de R&D mené en étroite collaboration par un groupement de 4 PME, un laboratoire de recherche scientifique du CNRS ainsi que 2 partenaires industriels : Airbus et INTESPACE.

 

Le projet va s’attacher à résoudre un certain nombre de verrous technologiques afin de répondre à des contraintes comme : la transmission des données sans fil, la gestion et le stockage de l’énergie, la miniaturisation des éléments tout en respectant les points durs soulevés dans le domaine des essais d’environnement : contraintes CEM, vibratoires et climatiques, packaging, nombre de voies de mesure et sûreté de fonctionnement… F. Hild  (LMT Cachan) a proposé un exposé complet démontrant les   possibilités offertes par les méthodes de mesures de champ à base de   corrélation d’images numériques en mécanique des solides. Il a   proposé à la fois le principe des méthodes d’identification inverse
et de nombreuses applications dans différents domaines couvrant les   matériaux métalliques, élastomères, en sollicitations statiques ou   dynamiques, à température ambiante ou non. Des applications à des   champs avec discontinuités (fissuration) ont été présentées incluant
la tomographie.

 

M. A. Girard (Intespace) a effectué une analyse critique des deux stratégies pour la simulation des chocs mécanique en laboratoire, en passant en revue les moyens d’essai généralement utilisés : vibrateurs en régime transitoire, machines à chocs et dispositifs spécifiques, en soulignant les possibilités et les limitations de chacun d’eux. Il s’est en particulier attaché à mettre en évidence les progrès réalisés ces dernières années dans la génération de chocs par impact métal-métal pour produire des spectres de choc proches de ceux de certains chocs pyrotechniques

 

Le dernier exposé (A. Perrier, ASTRIUM) présentait les travaux effectués pour développer une machine d’impacts destinée à des études de tolérance aux dommages sur des structures composites de grandes dimensions, avec une application aux corps de propulseur en carbone du M51, l’objectif étant de déterminer l’énergie maximale de choc admissible sans baisse de performance significative et sans remise en cause du respect des exigences de sûreté.

 

 

Philippe Comien ( DGA/DET/LRBA) a présidé la session climatique.

*

L’assistance était nettement plus fournie qu’en 2007. Les intervenants avaient tous très bien cadré leur durée de présentation, ce qui fut confortable pour le président.

Les exposés ont suscité un nombre de questions assez conséquent, signe d’intérêt, cependant, il apparaît difficile de contenter un public assez varié (échos post-session) ; la recherche d’intervenants n’étant pas simple non plus, peut-être y a-t-il lieu que l’ASTE fasse un appel à candidatures renforcé et ce, dès le début de l’année.

Ce sont les résumés des papiers de cette session qui sont présentés ci après.

Influence du choix des données in-situ. Application pour l’agent température.

Patrice TRINQUET ASTE

Les données in-situ en climatique apparaissent sous différentes formes : extrêmes et différentes moyennes. La prise en compte de ces

données, pour l’élaboration d’une étude d’influence d’un agent sur un produit manufacturé, peut déterminer la conception et les

sévérités d’essais. La connaissance de l’impact de ces valeurs est donc importante. Pour l’agent température, une comparaison des différentes présentations de ces données illustre ce propos.

 

Développement d’un moyen d’essais de vieillissement accéléré

Aurélien PERRIER  EADS Astrium – Saint-Médard-en-Jalles

EADS Astrium Space transportation a mis au point un moyen d’essai original à l’aide d’une étuve classique pour vieillir de façon accélérée une structure composite de grandes dimensions. La température de l’air est régulée par l’étuve et l’hygrométrie par une solution aqueuse de sel. Différents types de sel ont été trouvés. Chaque sel doit être utilisé pour obtenir un niveau d’humidité relative.

Cette solution originale permet de diminuer considérablement les coûts et d’augmenter de façon significative la probabilité de bon fonctionnement qui est d’une importance primordiale dans la réalisation de cycle long de vieillissement accéléré. Le cycle réalisé à l’aide du moyen d’essai par Astrium Space transportation est d’un an à 65 °C et une humidité relative de 70 %.

 

Prise en compte de l’environnement dans la planification et la conduite des opérations militaires

Pierre HUGUET *, Philippe COMIEN **, Michel AIDONIDIS ***

* Délégation Générale pour l’Armement, Bagneux

** Délégation Générale pour l’Armement, Vernon

*** Service Hydrographique et Océanographique de la Marine, Brest

L’environnement atmosphérique joue souvent un rôle important dans la planification et la conduite des opérations militaires. Les prévisions météorologiques sont utilisées pour les décisions tactiques jusqu’à 48 heures à l’avance (ou plus). Les données climatologiques sont utilisées pour la planification des opérations plusieurs mois à l’avance, et pour la conception des systèmes à long terme. Dans tous les cas, la prise en compte de l’environnement doit s’intégrer dans un processus de décision. Au-delà d’une description de l’environnement, on recherche donc des informations permettant d’évaluer son impact opérationnel dans des domaines variés : mobilité des véhicules, aéro-largage, ciblage et guidage, risque NBC, détection d’intrusion, furtivité, etc.

L’information technique fournie par le météorologue ou le géographe, doit donc être traduite en impact opérationnel. Cette fonction peut être assurée par un expert militaire en métropole ou au sein des postes de commandement de théâtre. De plus en plus, il est assisté par des outils d’aide à la décision. Ces outils déduisent de l’information météorologique et géographique une série de paramètres dérivés, directement corrélés à l’impact (ex : coefficient de propagation) puis leur applique un modèle de coût ou de décision. Cet impact peut être élémentaire, au niveau d’un composant ou combiné au niveau d’une mission.

Les outils d’aide à la décision sont applicables à plusieurs niveaux : pour la conduite des opérations (ex : choix d’un point de largage), pour la décision tactique (ex : choix du jour ou de l’heure d’un débarquement) ou pour la planification (ex : choix des moyens ou de la période d’intervention). Les décisions tactiques sont faites à partir des prévisions météorologiques. Pour la planification, on dispose de statistiques climatologiques déjà constituées et de données de réanalyse sur 15 à 40 ans. Les premières sont mal adaptées à l’application des modèles de sensibilité utilisés au niveau tactique. On est donc conduit à reporter les calculs statistiques en fin de chaîne, c’est-à-dire à appliquer les modèles d’impact aux données de réanalyse (ERA15, ERA40, NCEP, …) et à calculer les statistiques sur des paramètres opérationnels ou directement représentatifs d’un impact.

Enfin, l’information et les produits météorologiques sont diffusés dans un cadre OTAN avec une forte exigence de cohérence (« one theater, one forecast ») qui a conduit à une coopération élargie et au regroupement des outils d’aide à la décision par domaine technique (propagation électromagnétique, visible, infrarouge, acoustique, dissémination, mobilité, …). Cette coopération est également nécessaire et utile pour partager le coût et les moyens nécessaires à la validation des modèles.

 

Exploitation de nouveaux types de climatologie par les forces armées : des données et un outil

Michel AÏDONIDIS

SHOM (Ministère de la Défense) – Brest

Le ministère de la défense mène d’importants travaux de développement concernant l’influence de l’atmosphère dans ses différents champs d’action. Dans le domaine particulier de l’aide à la planification des opérations militaires, la réalisation de statistiques spécifiques sur des paramètres atmosphériques s’est basée sur les seules observations de surface ou d’altitude enregistrées dans les différentes stations météorologiques du globe armées par du personnel. La disparité de ces données, leur absence de certaines zones d’importance cruciale pour les opérations, leur limitation en terme de paramètres et les progrès technologiques de ces toutes dernières années a conduit à une définition plus précise du besoin, permettant de descendre à l’échelle horizontale de l’ordre de la dizaine de kilomètres et passant par la mise en oeuvre de modèles de méso-échelle, s’inscrivant dans le mouvement général de la simulation numérique des systèmes atmosphériques complexes. Cependant, l’exploitation de ces informations nombreuses et volumineuses nécessite un outil d’aide à la décision dédié aux opérationnels leur permettant une interprétation aisée et optimale. La Marine utilise pour ce faire l’outil Guide Métoc depuis une dizaine d’années maintenant, cet outil centralisant les diverses informations quasi-permanentes disponibles sous forme de statistiques ou de documentation.

 

 

Bruno Colin ( NEXTER) a présidé la session «  Modélisation ».

Les outils de simulation numérique interviennent à tous les stades du processus de conception d’un produit industriel, qu’il soit développé pour le compte du Secteur civil ou militaire. Très utilisés dans la branche descendante du « V » de conception, ces derniers conduisent à élaborer un grand nombre de modèles numériques permettant d’optimiser grandement les concepts d’architectures des produits industriels, soumis à des environnements de plus en plus dimensionnant.

 

Recalés désormais très souvent par des techniques expérimentales, au cours du processus de développement, ces modèles servent aujourd’hui également à mieux préparer les plans de validation expérimentaux des produits industriels, déroulés principalement dans la branche remontante du « V » de conception.

 

Les modèles de simulation s’inscrivent donc désormais dans une optique de réduction de délais de développement, mais également dans une optique de réduction de coût des programmes de validation expérimentaux des produits industriels en :

 

limitant le volume des essais à réaliser, par la suppression de certains essais jugés non contraignants, au vu des résultats acquis par les modèles numériques recalés en phase de conception,

optimisant et justifiant les sévérités d’essais de qualification (niveau et durées), définies « à priori », et ceci dans une démarche de maîtrise des risques accrue,

améliorant la qualité des essais et son niveau de représentativité par rapport aux conditions d’emploi simulées.

 

Au cours de la Session Modélisation, le thème du recalage des modèles numériques a été évoqué, sous l’angle du comportement dynamique des structures, par l’intervention de la Société LMS (Jenny Lau, Bart Peeters, Antonio Vecchio et Marcin Luczak) qui a présentée un article sur la technique d’analyse modale, utilisée désormais couramment par les industriels pour recaler les comportements modaux de leurs modèles Eléments Finis. L’objectif de l’article est ici de comparer les différentes techniques d’excitation (aléatoire, sinus balayé, sinus et appropriation modale), en termes de précision, d ‘efficacité et de domaine d’application.

 

L’utilisation des modèles numériques, développés en phase de conception pour valider et/ou ajuster au mieux les processus de réduction de durée d’essais de qualification vibratoire des équipements, a été illustrée par la Société N-CODE (Andrew Halfpenny et Frédéric Kihm) autour d’un exemple emprunté au secteur civil et concernant le cas particulier d’un collecteur d’échappement de bus, fissurant en essais in-situ. Cet article montre le bien fondé des méthodes de réduction des durées d’essais, développées par les techniques d’équivalence d’endommagement par fatigue et de contraintes extrêmes, préconisées par la démarche de personnalisation des essais, mise en place dans le secteur d’armement et largement utilisée désormais par le secteur civil. L’article montre notamment que ce principe de personnalisation et donc que les méthodes analytiques s’y référant, sont bien de nature à révéler les zones réelles de défaillances de l’équipement, avec un bon niveau de prédiction de sa durée de vie.

 

Pour aborder le thème de la qualité des essais de validation et de la réduction des risques de défaillance de structures complexes à haut niveau d’intégration, il convient de se reporter à l’article présenté par la Société LMS (Juan Betts, Koen Vansant, Chris Paulson et Jan Debille) concernant la problématique de représentativité des efforts d’interaction dynamiques situés entre le lanceur et son satellite. Cet article montre que la mise en place d’essais laboratoire « virtuel » peut en effet conduire à mieux maîtriser ce risque, en utilisant le modèle numérique du satellite que l’on vient coupler à un modèle Elément Finis d’outillage d’essais, le tout relié à un modèle décrivant les actions d’excitation et de contrôle, du moyen d’essai en vibration et de son système de pilotage.

 

La session Modélisation a également présentée deux articles majeurs sur les techniques de contrôle actif des vibrations des structures, dans l’optique d’en augmenter leur durée de vie opérationnelle. Ces deux articles ont été présentés par le LaMCoS de l’INSA-Lyon (Baptiste Chomette, Didier Remond, Simon Chesne et Luc Gaudiller) autour d’une problématique industrielle de la Société MBDA (Philippe Dessendier et Romain Sudant) et concernant la réduction des vibrations des cartes électroniques missiles. Pour ce faire, des techniques de contrôle actif modal ont été mise en place à partir de composants piézoélectriques positionnés judicieusement sur la structure des cartes électroniques de manière à être particulièrement efficaces sur les modes endommageant des cartes. La réductions des vibrations permet alors de réduire efficacement les vibrations aux pieds des composants et donc d’en augmenter grandement la durée de vie opérationnelle. D’un points de vu industriel, cette méthodologie de contrôle actif modal a été rendu tolérant à la dérive des fréquences par la mise en place d’une technique de contrôle semi adaptatif étendu à l’ensemble des paramètres modaux et plus particulièrement au coefficient de couplage électromécanique des patchs piézoélectriques, afin de la rendre performante vis à vis de la variabilité des conditions d’excitation et des paramètres modaux des cartes produites en grande série.

 

Jean-Paul Prulhière (METEXO Eng.) a présidé la session CEM.

Quatre conférences étaient initialement prévues dans le cadre d’ASTELAB 2008. Elles avaient pour objet de présenter:

un état de l’art sur les effets biologiques des micro-ondes (CEA) ,

l’influence des radiations sur la fiabilité des systèmes électroniques (MBDA)

l’évolution de la norme MIL STD 461 (EMITECH) la CEM à la DGA

Seules les trois premières se sont tenues.

 

Dîner – débat du mercredi:  le thème en était  “l’ATV et  la mission Jules Verne”, et a été présenté par Vincent PERY chef du Service “essais systèmes” à ASTRIUM”. Le dîner a eu lieu à l’Hôtel IBIS – Parc des  Expositions.

______________________

Inscription en ligne



* Règlement par virement : RIB Caisse d'Epargne 17515 90000 08082766082 - Clé 84

* Règlement par chèque bancaire : À l’ordre de ASTE à l'adresse postale suivante: 1, place Charles de Gaulle 78180 MONTIGNY LE BRETONNEUX

Un reçu ou une facture vous sera envoyé dès réception de votre règlement.


Prix TTC :