WorldCat Identities

Équipe d'accueil doctoral Modélisation et ingénierie des systèmes (Toulouse, Haute-Garonne)

Overview
Works: 71 works in 86 publications in 2 languages and 77 library holdings
Roles: Other, Degree grantor, 984
Publication Timeline
.
Most widely held works by Haute-Garonne) Équipe d'accueil doctoral Modélisation et ingénierie des systèmes (Toulouse
Commande adaptative pour avion de transport tolérante aux erreurs de modèle et aux pannes by Simon Oudin( Book )

2 editions published in 2013 in French and held by 2 WorldCat member libraries worldwide

This thesis deals with adapting flight control laws of a civil transport aircraft to various incertainties which can affect its behaviour. The adaptive flight control system is supposed to run in real time onboard the airplane so that its closed-loop performance is optimized with respect to the current conditions. These incertainties may be linked to unknown flight conditions (e.g. unknown airspeed and altitude), or unknown aerodynamics non-linearities or even unknown behaviour of the pilot in command. The adaptive schemes that are derived to answer these problems must be valid on the whole flight envelope with realistic disturbances but other additional contraints may exist depending on the context (e.g. loads limits, aeroelastic stability, etc.). To accommodate for large uncertainties on the system, adaptive methods are investigated. They usually combine an online estimator (also called an update law) with a structured flight control law. The synthesis of both elements may be simultaneous on 'direct' adaptive methods, e.g. on Model Reference Adaptive Control, using Lyapunov's stability theory. But it can also be decoupled on 'indirect' adaptive methods, giving a full spectrum of techniques for both elements (such as Least-Squares for estimating unknown physical parameters and the LFR framework for designing controllers). The choice of a specific method really depends on the application context and the related constraints.Three applications are the core of this report. They deal with adjusting guidance law to the pilot's unknown behaviour, controlling a longitudinal non-linearity, and providing manual longitudinal and lateral flight control laws which adapt to unknown flight conditions. Advanced linear and non-linear analysis techniques (based on µ-analysis or on optimization algorithms) are also applied to validated these sophisticated real-time adaptive systems. Results showed that indirect adaptive schemes were generally the most satisfactory. Their performance is similar to the one of direct schemes but as indirect methods provide physical parameter estimates, real-time monitoring and offline validation seem quite easier
Classification et géométrie des équations aux q-différences : étude globale de q-Painlevé, classification non isoformelle et Stokes à pentes arbitraires by Anton Eloy( Book )

2 editions published in 2016 in French and held by 2 WorldCat member libraries worldwide

Cette thèse s'intéresse à la classification géométrique, locale et globale, des équations aux q-différences. Dans un premier temps nous réalisons une étude globale de certains systèmes dérivés des équations de q-Painlevé et introduits par Murata, en proposant une correspondance de Riemann-Hilbert-Birkhoff entre de tels systèmes et leurs matrices de connexion. Dans un second temps nous nous intéressons à la classification locale, en construisant un fibré vectoriel équivariant sur l'espace des classes formelles à deux pentes dont la fibre au dessus d'une classe formelle est l'espace de ses classes analytiques isoformelles. Ceci fait, voyant que l'action du groupe des automorphismes du gradué s'impose naturellement dans l'étude de ce fibré, nous nous intéressons à l'espace des classes analytiques, soit des classes analytiques isoformelles modulo cette action, dont nous proposons dans un cas restreint une première approche de classification via l'utilisation de variétés toriques. Dans un troisième temps nous construisons, via des transformations de q-Borel et de q-Laplace, des q-Stokes, soit des solutions méromorphes de systèmes, dans le cadre des systèmes à deux pentes dont une non entière et une nulle
Optimisation des plans de test des charges utiles des satellites de télécommunication by Caroline Maillet( Book )

2 editions published in 2012 in French and held by 2 WorldCat member libraries worldwide

La validation des charges utiles des satellites de télécommunication nécessite des opérations coûteuses en temps et en personnel. Ce coût augmente régulièrement du fait de la complexité croissante des charges utiles. Il est donc crucial pour Astrium d'optimiser la réalisation des opérations de test. L'objectif de cette thèse CIFRE menée en collaboration entre Astrium et l'Onera est de développer une suite logicielle d'aide à la génération de plans de test. Le problème de génération de plan de test a été modélisé sous forme de graphe orienté à états. La NP-complétude de ce problème a été établie. Des modèles mathématiques ont été construits en programmation linéaire en nombres entiers et en programmation par contraintes en vue d'une résolution par des solveurs génériques. Cependant, ces solveurs génériques se sont heurtés à des problèmes d'insuffisance de mémoire liés à la très grande taille des instances à traiter. Ceci nous a conduits à développer un solveur spécialisé à base de recherche arborescente faisant appel à des mécanismes spécifiques de choix de variables et de valeurs, de propagation de contraintes, de calcul de borne, de retour-arrière, d'apprentissage et de redémarrage. Un solveur spécialisé à base de recherche locale a été développé en parallèle. Les résultats obtenus par ces différents solveurs avec différents paramétrages ont pu être comparés
Codage par superposition pour les communications par satellite by Hugo Méric( Book )

2 editions published in 2012 in French and held by 2 WorldCat member libraries worldwide

Modern satellite communication systems mainly rely on time sharing to optimize the throughput. Each receiver uses the channel during a given fraction of time. During this period, the transmission parameters (i.e., the modulation and the coding rate) are chosen in order totransmit as much information as possible. The scheme is easy to implement which explains its popularity. However, it is today well established that time sharing is not optimal in terms of spectrum efficiency offered to the receivers. Indeed, the scheme that consists in sending superposed data offers better performance than the time sharing. This thesis investigates the application of superposition coding in satellite communication systems. First of all, we study the performance of hierarchical modulation which is an implementation of superposition coding at the modulation level. We propose a performance evaluation method for such modulations. We also compare the performance of hierarchical and non hierarchical modulations in terms of spectrum efficiency and link unavailability. These two criteria are very important for broadcast system and we show that hierarchical modulations often offer better performance than non hierarchical modulations.Then, we study the performance improvement in terms of spectrum efficiency when using hierarchical modulation in satellite communication systems. Two issues are addressed. The first one is how to group the receivers in pairs in order to transmit data with a hierarchical modulation. The second issue is the computation of the spectrum efficiency. We show that significant gains are possible depending on the system configuration. The last part considers a system where multiple users communicate through a satellite. The satellite acts as a relay in our scenario. We propose a communication scheme where several users emit at the same time with appropriate transmitting power. Thus the signals naturally superpose and generate interference. The receivers use two mechanisms for decoding the signals: physical layer network coding and demodulation of superposed constellations. Finally, we explain how the performance improvements obtained by superposition coding in several scenarios open perspectives for future work
Modèles de substitution spatio-temporels et multifidélité : Application à l'ingénierie thermique by Matthias De lozzo( Book )

2 editions published between 2012 and 2013 in French and held by 2 WorldCat member libraries worldwide

Cette thèse porte sur la construction de modèles de substitution en régimes transitoire et permanent pour la simulation thermique, en présence de peu d'observations et de plusieurs sorties.Nous proposons dans un premier temps une construction robuste de perceptron multicouche bouclé afin d'approcher une dynamique spatio-temporelle. Ce modèle de substitution s'obtient par une moyennisation de réseaux de neurones issus d'une procédure de validation croisée, dont le partitionnement des observations associé permet d'ajuster les paramètres de chacun de ces modèles sur une base de test sans perte d'information. De plus, la construction d'un tel perceptron bouclé peut être distribuée selon ses sorties. Cette construction est appliquée à la modélisation de l'évolution temporelle de la température en différents points d'une armoire aéronautique.Nous proposons dans un deuxième temps une agrégation de modèles par processus gaussien dans un cadre multifidélité où nous disposons d'un modèle d'observation haute-fidélité complété par plusieurs modèles d'observation de fidélités moindres et non comparables. Une attention particulière est portée sur la spécification des tendances et coefficients d'ajustement présents dans ces modèles. Les différents krigeages et co-krigeages sont assemblés selon une partition ou un mélange pondéré en se basant sur une mesure de robustesse aux points du plan d'expériences les plus fiables. Cette approche est employée pour modéliser la température en différents points de l'armoire en régime permanent.Nous proposons dans un dernier temps un critère pénalisé pour le problème de la régression hétéroscédastique. Cet outil est développé dans le cadre des estimateurs par projection et appliqué au cas particulier des ondelettes de Haar. Nous accompagnons ces résultats théoriques de résultats numériques pour un problème tenant compte de différentes spécifications du bruit et de possibles dépendances dans les observations
Capture de mouvements humains par capteurs RGB-D by Jean-Thomas Masse( Book )

2 editions published in 2015 in French and held by 2 WorldCat member libraries worldwide

Simultaneous apparition of depth and color sensors and super-realtime skeleton detection algorithms led to a surge of new research in Human Motion Capture. This feature is a key part of Human-Machine Interaction. But the applicative context of those new technologies is voluntary, fronto-parallel interaction with the sensor, which allowed the designers certain approximations and requires a specific sensor placement. In this thesis, we present a multi-sensor approach, designed to improve robustness and accuracy of a human's joints positionning, and based on a trajectory smoothing process by temporal integration, and filtering of the skeletons detected in each sensor. The approach has been tested on a new specially constituted database, with a specifically adapted calibration methodology. We also began extending the approach to context-based improvements, with object perception being proposed
Étude d'un schéma différences finies haute précision et d'un modèle de fil mince oblique pour simuler les perturbations électromagnétiques sur véhicule aérospatial by Thibault Volpert( )

1 edition published in 2014 in French and held by 1 WorldCat member library worldwide

Les travaux de cette thèse concerne l'étude d'une méthode élément finis d'ordre spatial élevé que l'on peut assimilé à une extension du schéma de Yee. On parle alors de méthode différences finies d'ordre élevé. Après avoir donné, dans un premier chapitre, un historique non exhaustif des principales méthodes utilisées pour résoudre les équations de Maxwell dans le cadre de problèmes de CEM et montré l' intérêt de disposer d'un solveur de type "différences finies d' ordre élevé", nous présentons dans un deuxième chapitre le principe de la méthode. Nous donnons pour cela les caractéristiques du schéma spatial et temporel en précisant les conditions de stabilité de la méthode. En outre, dans une étude purement numérique, nous étudions la convergence du schéma. On se focalise ensuite sur la possibilité d'utiliser des ordres spatiaux variable par cellules dans chaque direction de l'espace. Des comparaisons avec le schéma de Yee et un schéma de Galerkin Discontinu particulier sont ensuite effectuées pour montrer les gains en coûts calcul et mémoire et donc l'intérêt de notre approche par rapport aux deux autres. Dans un troisième chapitre, nous nous intéressons à l'étude de modèles physiques indispensable au traitement d'un problème de CEM. Pour cela, nous nous focalisons particulièrement sur un modèle de fil mince oblique, des modèles de matériaux volumiques et minces et enfin sur la prise en compte de sol parfaitement métallique dans une agression de type onde plane. Chaque modèle est détaillé et validé par comparaison avec des solutions analytiques ou résultant de la littérature, sur des exemples canoniques. Le quatrième chapitre est dédié à une technique d'hybridation entre notre méthode et une approche Galerkin Discontinu en vue de traiter des géométries possédant des courbures. Nous donnons pour cela une stratégie d'hybridation basée sur l'échange de flux qui garantie au niveau continue la conservation d'une énergie. Nous présentons ensuite quelques exemples montrant la validité de notre approche dans une stratégie multi-domaines/multi-méthodes que nous précisons. Enfin le dernier chapitre de cette thèse concerne l'exploitation de notre méthode sur des cas industriels en comparaisons avec d'autres méthodes ou des résultats expérimentaux
Protocoles de transport pour la diffusion vidéo temps-réel sur lien sans-fil by Golam Sarwar( )

1 edition published in 2014 in English and held by 1 WorldCat member library worldwide

Real time communications have, in the last decade, become a highly relevant component of Internet applications and services, with both interactive (voice and video) communications and streamed content being used by people in developed and developing countries alike. Due to the proliferation of mobile devices, wireless media is becoming the means of transmitting a large part of this increasingly important real time communications traffic. Wireless has also become an important technology in developing countries (and remote areas of developed countries), with satellite communications being increasingly deployed for traffic backhaul and ubiquitous connection to the Internet. A number of issues need to be addressed in order to have an acceptable service quality for real time communications in wireless environments. In addition to this, the availability of multiple wireless interfaces on mobile devices presents an opportunity to improve and further exacerbates the issues already present on single wireless links. Mitigation of link errors originating from the wireless media, addressing packet reordering, jitter, minimising the link and buffering (required to deal with reordering or jitter) delays, etc. all contribute to lowering user's quality of experience and perception of network quality and usability. Therefore in this thesis, we consider improvements to transport protocols for real time communications and streaming services to address these problems
Analyse des effets des déplacements atomiques induits par l'environnement radiatif spatial sur la conception des imageurs CMOS by Cédric Virmontois( )

1 edition published in 2012 in French and held by 1 WorldCat member library worldwide

Today, space imaging is an essential tool for sustainable development, research and scientific innovation as well as security and defense. Thanks to their good electro-optic performances and low power consumption, CMOS image sensors are serious candidates to equip future space instruments. However, it is important to know and understand the behavior of this imager technology when it faces the space radiation environment which could damage devices performances. Many previous studies have been focused on ionizing effects in CMOS imagers, showing their hardness and several hardening-by-design techniques against such radiations. The conclusions of these works emphasized the need to study non-ionizing effects which have become a major issue in the last generation of CMOS image sensors. Therefore, this research work focuses on non-ionizing effects in CMOS image sensors. These effects, also called displacement damage, are investigated on a large number of CMOS imagers and test structures. These devices are designed using several CMOS processes and using design rule changes in order to observe possible common behaviors in CMOS technology. Similarities have been shown between proton and neutron irradiations using current-voltage characteristics and deep level transient spectroscopy. These results emphasize the relevance of neutron irradiations for an accurate study of the non-ionizing effects. Then, displacement damage induced dark current increase as well as the associated random telegraph signal are measured and modeled. Common evaluation parameters to investigate displacement damage are found, allowing imager behavior prediction in space radiation environment. Finally, specific methods and hardening-by-design techniques to mitigate displacement damage are proposed
Enhancement of the conceptual aircraft design process through certification constraints management and full mission simulations by Peter Schmollgruber( )

1 edition published in 2018 in English and held by 1 WorldCat member library worldwide

The design of a new aircraft is initiated at the conceptual design phase. In an initial step, aircraftdesigners, disciplinary and subsystems experts identify a set of potential concepts that could fulfill thecustomer requirements. To select the most promising candidates, aircraft designers carry out the sizingprocess through a Multidisciplinary Design Analysis. Nowadays, in the field of civil transport aircraft,environmental constraints set challenging goals in terms of fuel consumption for the next generationsof airplanes. With the “tube and wing” configuration offering low expectations on furtherimprovements, disruptive vehicle concepts including new technologies are investigated. However,little information on such architectures is available in the early phases of the design process. Thus, inorder to avoid mistakenly selecting or eliminating a wrong concept, a key objective in Aircraft Designresearch is to add knowledge in the Multidisciplinary Design Analysis.Nowadays, this objective is achieved with different approaches: implementation of MultidisciplinaryDesign Optimization, addition of accuracy through high fidelity analyses, introduction of newdisciplines or systems and uncertainty management. The role of the aircraft designer is then tocombine these options in a multidisciplinary design process to converge to the most promising conceptmeeting certification constraints. To illustrate this process, the optimization of a transport aircraftfeaturing ground based assistance has been performed. Using monolithic optimization architecture andadvanced structural models for the wing and fuselage, this study emphasized the impact ofcertification constraints on final results. Further review of the regulatory texts concluded that aircraftsimulation capabilities are needed to assess some requirements. The same need has been identified inthe field of Air Traffic Management that provides constraints for aircraft operations. This researchproposes then to add knowledge through an expansion of the Multidisciplinary Design Analysis andOptimization with a new Certification Constraint Module and full simulation capabilities.Following the development of the Certification Constraint Module (CCM), its capabilities have beenused to perform four optimization problems associated to a conventional civil transport aircraft basedon the ONERA / ISAE-SUPAERO sizing tool called FAST. Facilitated by the Graphical UserInterface of the CCM, the setup time of these optimizations has been reduced and the results clearlyconfirmed the necessity to consider certification constraints very early in the design process in order toselect the most promising concepts.To achieve full simulation capabilities, the multidisciplinary analysis within FAST had to beenhanced. First, the aerodynamics analysis tool has been modified so that necessary coefficients for a6 Degrees-of-Freedom model could be generated. Second, a new module computing inertia propertieshas been added. Last, the open source simulator JSBSim has been used including different controllaws for stability augmentation and automated navigation. The comparison between flight trajectoriesobtained with FAST and real aircraft data recorded with ADS-B antenna confirmed the validity of theapproach
Étude de l'application de la théorie des valeurs extrêmes pour l'estimation fiable et robuste du pire temps d'exécution probabiliste by Fabrice Guet( )

1 edition published in 2017 in French and held by 1 WorldCat member library worldwide

Software tasks are time constrained in real time computing systems. To ensure the safety of the critical systems that embeds the real time system, it is of paramount importance to safely estimate the worst-case execution time of each task. Modern commercial processors optimisation components enable to reduce in average the task execution time at the cost of a hard to determine task worst-case execution time. Many approaches for executing a task worst-case execution time exist but are usually segregated and hardly scalable, or by building very complex models. Measurement-based probabilistic timing analysis approaches are said to be easy and fast, but they suffer from a lack of systematism and confidence in their estimates. This thesis studies the applicability of the extreme value theory to a sequence of execution time measurements for the estimation of the probabilistic worst-case execution time, leading to the development of the diagxtrm tool. Thanks to a large panel of sequences of measurements from different real time systems, capabilities and limits of the tool are enlightened. Finally, a couple of methods are provided for determining measurements conditions that foster the application of the theory and raise more confidence in the estimates
Interactions inter-couches et liens à long délai by Nicolas Kuhn( )

1 edition published in 2013 in English and held by 1 WorldCat member library worldwide

La demande accrue de services en temps rel, comme la vidéo streaming, justifie le besoin d'études qui visent à optimiser le délai de transmission de données. En plus du délai de transmission au niveau physique, les délais nécessaires à l'accès à la ressource et à la récupération de données venant des couches basses peuvent avoir un impact important sur les performances et ne doivent pas être négligés. Aussi, des études cross-layer doivent être menées pour minimiser le délai de transmission de l'information. Comprendre l'impact des mécanismes des couches basses sur les performances de bout-en-bout permet un meilleur dimensionnement du réseau, une adaptation du trafic transmis, ou l'introduction de service à faible priorité. Dans cette thèse, nous avons mesuré l'impact des mécanismes des couches liaison et réseau sur les performances de divers protocols de congestion de la couche transport.Dans le contexte des liens 4G par satellite, nous proposons un ensemble d'outils, Trace Manager Tool (TMT) et Cross Layer InFormation Tool (CLIFT), pour simuler de manière réaliste l'ensemble de la couche OSI dans le simulateur de réseau NS-2. Nous avons montré que, pour l'ensemble des variantes de TCP considérées, quand le débit au niveau transport est proche de la capacité de canal, utiliser ARQ au niveau liaison est optimal. Dans le cas où le taux d'erreur au niveau de la couche physique est plus élevé, H-ARQ permet d'obtenir un meilleur débit au niveau transport.Les dernières spécifications concernant l'accès au lien satellite DVB-RCS2 présentent deux méthodes d'accès (aléatoire et dédié) qui peuvent être implémentées pour permettre aux utilisateurs des services proposés par DVB d'aller sur Internet ou de transmettre des données. Nous avons développé un module pour NS-2, Physical Channel Access (PCA), qui modèle l'accès au canal pour chacune de ces méthodes afin de comparer leur impact sur les performances de bout-en-bout. Nous avons mesuré que les méthodes d'accès dédié permettent un débit plus important et les méthodes d'accès aléatoire une transmission rapide des flots courts. Nous avons donc proposé de mixer ces méthodes d'accès, en fonction de l'évolution dynamique de la charge du réseau et de la taille du flot de données transmis.Finalement, nous avons étudié s'il était possible d'exploiter les données de la gateway du satellite pour introduire un trafic à priorité basse. Nous avons montré qu'il était possible avec Low Ewtra Delay Background Transport (LEDBAT) comme protocole de la couche transport d'introduire un trafic en tâche de fond. Cependant, en fonction de la variation de la charge du réseau, paramétrer correctement des paramètres internes à ce protocole sont nécessaires
On the interaction between transport protocols and link-layer reliability schemes for satellite mobile services by Bastien Tauran( )

1 edition published in 2018 in English and held by 1 WorldCat member library worldwide

L'accès à Internet par satellite permet de connecter des régions isolées de la terre ou des utilisateurs en mouvement, pour lesquels une solution terrestre peut s'avérer couteuse voire impossible. L'utilisation de constellations de satellite en orbite basse permet de transmettre avec des délais similaires à ceux des transmissions terrestres, permettant l'utilisation des protocoles de transport classiques comme TCP. L'utilisation d'un tel environnement engendre cependant des contraintes spécifiques à ce type de réseau, comme des délais de transmission variables et un important taux d'erreur, principalement lors de la traversée de l'atmosphère. Pour compenser ces forts taux de pertes, des mécanismes de fiabilisation doivent être introduit au niveau des couche basse. Ces mécanismes ont toutefois un impact négatif sur les performances des protocoles de transport, notamment TCP, limitant grandement le débit. Le but de cette thèse est de comprendre dans un premier temps les interactions entre les mécanismes de fiabilisation et les protocoles de transport, pour ensuite proposer des solutions permettant d'améliorer la qualité des transmissions
Study of QB-CSMA algorithms by Eyal Castiel( )

1 edition published in 2019 in English and held by 1 WorldCat member library worldwide

Performance of wireless networks, in which users share the air as support for their communications is strongly limited by electromagnetic interference. That is, two users close to each other trying to send a message on the same frequency will experience interference between their messages, eventually leading to the loss of some information. It is then crucial to develop medium access protocols aiming to limit the occurrence of such a phenomena by choosing in an effective (and distributed) manner which station is allowed to transmit. From a scientific point of view, it is a difficult issue which has had some attention from the community in the field of computer science and applied probability in the past 30 years. Recently, a new class of medium access protocols - called adaptive CSMA - emerged and seem quite promising: for example, it has been shown that they exhibit a desirable property: throughput optimality (maximum stability). The goal of this project is to increase the knowledge we have the adaptive CSMA (or CSMA QB, for Queue Based) which is to this day quite limited (notably in the expected waiting time of a request arriving in the system, called delay). Our goal will be to prove theoric results to enhance our understanding of the throughput/delay trade-off
Synthèse automatique d'architectures tolérantes aux fautes by Kévin Delmas( )

1 edition published in 2017 in French and held by 1 WorldCat member library worldwide

Safety is a major issue in the design of critical systems since any failure can be hazardous to the users or the environment of such systems. In some areas, such as aeronautics, designers must also demonstrate to the certification authorities that the risks are acceptable. To do so, the designers define an architecture containing a set of security mechanisms to mitigate or at least limit the probability of occurrence of the identified risks. The objective of this work is to develop an automatic and generic method of architectural synthesis which formally ensures compliance with the safety requirements. This synthesis activity is then formalized as a design space exploration problem, i.e. find a candidate belonging to a finite set of architectures, fulfilling the safety requirements. Thus, we propose in this document a complete and correct resolution process of the design space exploration problem based on the use of SMT solvers. The main contributions are:1- the formalization of the synthesis as a problem of Satisfiability Modulo Theory (SMT) in order to use existing solvers to automatically generate a solution formally ensuring safety requirements;2- the development of analytic methods specially designed to efficiently assess the conformity of an architecture with respect to a set of safety requirements;3- the definition of a language named, KCR, allowing to formulate the design space exploration problem and the implementation of the methods of resolution presented in this work within the tool KCR Analyser
Optimisation auto-adaptative en environnement d'analyse multidisciplinaire via les modèles de krigeage combinés à la méthode PLS by Mohamed Amine Bouhlel( )

1 edition published in 2016 in French and held by 1 WorldCat member library worldwide

Aerospace turbomachinery consists of a plurality of blades. Their main function is to transfer energybetween the air and the rotor. The bladed disks of the compressor are particularly important becausethey must satisfy both the requirements of aerodynamic performance and mechanical resistance.Mechanical and aerodynamic optimization of blades consists in searching for a set of parameterizedaerodynamic shape that ensures the best compromise solution between a set of constraints.This PhD introduces a surrogate-based optimization method well adapted to high-dimensionalproblems. This kind of high-dimensional problem is very similar to the Snecma's problems. Ourmain contributions can be divided into two parts : Kriging models development and enhancementof an existing optimization method to handle high-dimensional problems under a large number ofconstraints. Concerning Kriging models, we propose a new formulation of covariance kernel which is able toreduce the number of hyper-parameters in order to accelerate the construction of the metamodel.One of the known limitations of Kriging models is about the estimation of its hyper-parameters.This estimation becomes more and more difficult when the number of dimension increases. Inparticular, the initial design of experiments (for surrogate modelling construction) requires animportant number of points and therefore the inversion of the covariance matrix becomes timeconsuming. Our approach consists in reducing the number of parameters to estimate using the Partial LeastSquares regression method (PLS). This method provides information about the linear relationshipbetween input and output variables. This information is integrated into the Kriging model kernelwhile maintaining the symmetry and the positivity properties of the kernels. Thanks to this approach,the construction of these new models called KPLS is very fast because of the low number of newparameters to estimate. When the covariance kernel used is of an exponential type, the KPLS methodcan be used to initialize parameters of classical Kriging models, to accelerate the convergence of theestimation of parameters. The final method, called KPLS+K, allows to improve the accuracy of themodel for multimodal functions. The second main contribution of this PhD is to develop a global optimization method to tacklehigh-dimensional problems under a large number of constraint functions thanks to KPLS or KPLS+Kmethod. Indeed, we extended the self adaptive optimization method called "Efficient Global Optimization,EGO" for high-dimensional problems under constraints. Several enriching criteria have been tested. This method allows to estimate known global optima on academic problems up to 50 inputvariables. The proposed method is tested on two industrial cases, the first one, "MOPTA", from the automotiveindustry (with 124 input variables and 68 constraint functions) and the second one is a turbineblade from Snecma company (with 50 input variables and 31 constraint functions). The results showthe effectiveness of the method to handle industrial problems.We also highlight some importantlimitations
Génération de codes et d'annotations prouvables d'algorithmes de points intérieurs à destination de systèmes embarqués critiques by Guillaume Davy( )

1 edition published in 2018 in French and held by 1 WorldCat member library worldwide

In the industry, the use of optimization is ubiquitous. Optimization consists of calculating the best solution subject to a number of constraints. However, this calculation is complex,long and not always reliable. This is why this task has long been confined to the design stages,which allowed time to do the computation and then check that the solution is correct and if necessary redo the computation. In recent years, thanks to the ever-increasing power of computers, the industry has begun to integrate optimization computation at the heart of the systems. That is to say that optimization computation is carried out continuously within the system, sometimes dozens of times per second. Therefore, it is impossible to check a posteriori the solution or restart a calculation. That is why it is important to check that the program optimization is perfectly correct and bug-free. The objective of this thesis was to develop tools and methods to meet this need. To do this we have used the theory of formal proof that is to consider a program as a mathematical object. This object takes input data and produces a result. We can then, under certain conditions on the inputs, prove that the result meets our requirements. Our job was to choose an optimization program and formally prove that the result of this program is correct
Conception et validation d'AeroRing - un réseau de communication Ethernet en double anneau pour les systèmes avioniques de nouvelle génération by Ahmed Amari( )

1 edition published in 2017 in English and held by 1 WorldCat member library worldwide

La complexité et le besoin en bande passante des architectures de communication avioniquene cessent de croitre avec le nombre des calculateurs et l'expansion des données échangées. Latechnologie AFDX a été introduite pour offrir des communications haut débit (100Mbps) pourles avions de nouvelle génération. Cependant, ce réseau commuté est déployé de manièreentièrement redondante, ce qui conduit à des quantités importantes de câbles, augmentant lepoids et les coûts d'intégration. Pour faire face à ces problèmes, on propose dans cette thèsel'intégration d'un réseau Ethernet en anneau comme une solution principale pour diminuerle poids et la complexité liés au câblage. Dans ce contexte, notre objectif est de concevoir etvalider un nouveau réseau de communication avionique, AeroRing, basé sur de l'EthernetGigabit avec une topologie anneau
Amélioration des processus de vérification de programmes par combinaison des méthodes formelles avec l'Ingénierie Dirigée par les Modèles by Anthony Fernandes Pires( )

1 edition published in 2014 in French and held by 1 WorldCat member library worldwide

Lors d'un développement logiciel, et plus particulièrement d'un développement d'applications embarquées avioniques, les activités de vérification représentent un coût élevé. Une des pistes prometteuses pour la réduction de ces coûts est l'utilisation de méthodes formelles. Ces méthodes s'appuient sur des fondements mathématiques et permettent d'effectuer des tâches de vérification à forte valeur ajoutée au cours du développement. Les méthodes formelles sont déjà utilisées dans l'industrie. Cependant, leur difficulté d'appréhension et la nécessité d'expertise pour leur mise en pratique sont un frein à leur utilisation massive. Parallèlement au problème des coûts liés à la vérification logicielle, vient se greffer la complexification des logiciels et du contexte de développement. L'Ingénierie Dirigée par les Modèles (IDM) permet de faire face à ces difficultés en proposant des modèles, ainsi que des activités pour en tirer profit.Le but des travaux présentés dans cette thèse est d'établir un lien entre les méthodes formelles et l'IDM afin de proposer à des utilisateurs non experts une approche de vérification formelle et automatique de programmes susceptible d'améliorer les processus de vérification actuels. Nous proposons de générer automatiquement sur le code source des annotations correspondant aux propriétés comportementales attendues du logiciel, et ce, à partir de son modèle de conception. Ces annotations peuvent ensuite être vérifiées par des outils de preuve déductive, afin de s'assurer que le comportement du code est conforme au modèle. Cette thèse CIFRE s'inscrit dans le cadre industriel d'Atos. Il est donc nécessaire de prendre en compte le contexte technique qui s'y rattache. Ainsi, nous utilisons le standard UML pour la modélisation,le langage C pour l'implémentation et l'outil Frama-C pour la preuve du code. Nous tenons également compte des contraintes du domaine du logiciel avionique dans lequel Atos est impliqué et notamment les contraintes liées à la certification.Les contributions de cette thèse sont la définition d'un sous-ensemble des machines à états UML dédié à la conception comportementale de logiciel avionique et conforme aux pratiques industrielles existantes, la définition d'un patron d'implémentation C, la définition de patrons de génération des propriétés comportementales sur le code à partir du modèle et enfin l'implémentation de l'approche dans un prototype compatible avec l'environnement de travail des utilisateurs potentiels en lien avec Atos. L'approche proposée est finalement évaluée par rapport à l'objectif de départ, par rapport aux attentes de la communauté du génie logiciel et par rapport aux travaux connexes
Techniques d'amélioration des performances des méthodes d'accès aléatoire synchrones pour les communications par satellite by Karine Zidane( )

1 edition published in 2016 in English and held by 1 WorldCat member library worldwide

With the need to provide the Internet access to deprived areas and to cope with constantlyenlarging satellite networks, enhancing satellite communications becomes a crucial challenge.In this context, the use of Random Access (RA) techniques combined with dedicated accesson the satellite return link, can improve the system performance. However conventionalRA techniques like Aloha and Slotted Aloha suffer from a high packet loss rate caused bydestructive packet collisions. For this reason, those techniques are not well-suited for datatransmission in satellite communications. Therefore, researchers have been studying andproposing new RA techniques that can cope with packet collisions and decrease the packet lossratio. In particular, recent RA techniques involving information redundancy and successiveinterference cancellation, have shown some promising performance gains.With such methods that can function in high load regimes and resolve packets with high collisions,channel estimation is not an evident task. As a first contribution in this dissertation, wedescribe an improved channel estimation scheme for packets in collision in new RAmethodsin satellite communications. And we analyse the impact of residual channel estimation errorson the performance of interference cancellation. The results obtained show a performancedegradation compared to the perfect channel knowledge case, but provide a performanceenhancement compared to existing channel estimation algorithms. Another contribution of this thesis is presenting a method called Multi-Replica Decoding using Correlation based Localisation (MARSALA). MARSALA is a new decoding technique for a recent synchronous RAmethod called Contention Resolution Diversity Slotted Aloha (CRDSA). Based on packets replication and successive interference cancellation, CRDSA enables to significantly enhance the performance of legacy RA techniques. However, if CRDSA is unable to resolve additional packets due to high levels of collision, MARSALA is applied. At the receiver side, MARSALA takes advantage of correlation procedures to localise the replicas of a given packet, then combines the replicas in order to obtain a better Signal to Noise plus Interference Ratio. Nevertheless, the performance ofMARSALA is highly dependent on replicas synchronisation in timing and phase, otherwise replicas combination would not be constructive. In this dissertation, we describe an overall framework ofMARSALA including replicas timing and phase estimation and compensation, then channel estimation for theresulting signal. This dissertation also provides an analytical model for the performancedegradation of MARSALA due to imperfect replicas combination and channel estimation.In addition, several enhancement schemes forMARSALA are proposed likeMaximum RatioCombining, packets power unbalance, and various coding schemes. Finally, we show thatby choosing the optimal design configuration for MARSALA, the performance gain can besignificantly enhanced
 
moreShow More Titles
fewerShow Fewer Titles
Audience Level
0
Audience Level
1
  Kids General Special  
Audience level: 0.94 (from 0.92 for Modèles d ... to 0.95 for Codage par ...)

Alternative Names
École doctorale Mathématiques, informatique et télécommunications de Toulouse. Équipe d'accueil MOIS

Équipe d'accueil ISAE-ONERA MOIS

Languages
French (19)

English (7)