WorldCat Identities

Munier-Kordon, Alix

Overview
Works: 32 works in 41 publications in 2 languages and 50 library holdings
Roles: Thesis advisor, Opponent, Other, Author
Classifications: QA76.9.A43, 005.1
Publication Timeline
.
Most widely held works by Alix Munier-Kordon
Contribution à l'étude des ordonnancements cycliques by Alix Munier-Kordon( Book )

2 editions published in 1991 in French and held by 5 WorldCat member libraries worldwide

Un problème d'ordonnancement cyclique est caractérisé par un nombre fini de taches génériques de durées fixées qui doivent être exécutées une infinie de fois. Ces taches non reéntrantes sont soumises à des contraintes de précédence et de ressource qui doivent être vérifiées par toutes leurs exécutions. le critère d'optimisation généralement utilisé est la maximisation du débit. Malgré d'importantes applications industrielles ou informatiques, ce type de problème a été jusqu'ici peu abordé en tant que problème d'optimisation combinatoire. Seule la version sans contraintes de ressource de ce problème, appelée problème central répétitif a été résolue. dans cette thèse, nous étudions deux problèmes d'ordonnancement cycliques fondamentaux. Le premier consiste en un ensemble de tâches génériques qui sont exécutées sur des processeurs différenciés et qui sont soumises aux contraintes de précédence d'un problème central répétitif. Nous montrons que le problème général est NP-difficile et nous étudions la complexité de plusieurs sous-problèmes importants. De plus, nous étudions la dominance de structures périodiques simple d'ordonnancements. Le second consiste en un ensemble de tâches soumises a des contraintes de précédence linéaires. Nous montrons que l'ordonnancement au plus tôt est optimal et K-périodique. Nous donnons un algorithme pour calculer le débit optimal des tâches. Cet algorithme est basé d'une part sur une décomposition particulière du graphe des précédences et d'autre part sur l'expansion de ces composantes. Ces deux outils permettent de se ramener à l'étude d'un problème central répétitif
Exercices et problèmes d'algorithmique 155 énoncés avec solutions détaillées by Bruno Baynat( )

1 edition published in 2010 in French and held by 4 WorldCat member libraries worldwide

Ce livre propose des activités et des sujets d'examen. Il présente les rédactions complètes des démonstrations et des algorithmes exprimés selon un formalisme proche de celui des langages de programmation impératifs comme C++, Java ou Pascal.--[Memento]
Dimensionnement des mémoires pour systèmes embarqués by Olivier Marchetti( Book )

2 editions published in 2006 in French and held by 3 WorldCat member libraries worldwide

Le problème du dimensionnement des mémoires pour systèmes embarqués consiste à définir la taille à allouer pour chaque mémoire tel que la surface globale occupée par ces mémoires soit minimale et que le système embarqué puissent fonctionner sans bloquage lié à un sous dimensionnement de ces mémoires. Nous modélisons ce problème d'optimisation en utilisant le modèle des graphes d'événements généralisés (GEG en abrégé). Nous montrons que ce problème d'optimisation est étroitement lié au problème de vivacité d'un GEG. Nous proposons une transformation des GEG, appelée normalisation, permettant de définir une condition suffisante de vivacité ainsi qu'un algorithme polynomial pour tester cette condition sur des GEG quelconques. Nous proposons des résultats nouveaux de complexité pour des problèmes d'optimisation bi-critères (ie. surface globale / débit du système). Nous développons un algorithme polynomial 2-approché pour la résolution du problème bi-critère du débit maximum intrinsèque
Modèles pour l'optimisation de la simulation au cycle près de systèmes synchrones by Timothée Bossart( Book )

2 editions published in 2006 in French and held by 3 WorldCat member libraries worldwide

Conception incrémentale, vérification de composants matériels et méthode d'abstraction pour la vérification de systèmes intégrés sur puce by Cécile Braunstein( Book )

2 editions published in 2007 in French and held by 3 WorldCat member libraries worldwide

Cette thèse traite de la vérification formelle par model checking de systèmes intégrés sur puce. Nous proposons d'abord une méthode de conception incrémentale pour la vérification d'un composant matériel. Cette méthode est un cadre de conception par ajouts successifs de nouveaux comportements. Nous avons montré que cette méthode assure la non-régression d'un composant tout au long de sa conception. D'autre part, cette méthode permet aussi de faire évoluer la spécification d'un composant en prenant en compte les différentes fonctionnalités ajoutées au cours de la conception. Nous avons ensuite particularisé cette approche pour la conception et la vérification d'architectures pipelines. Cette méthode a été utilisée avec succès pour laconception de convertisseurs de protocole. La vérification par model-checking d'un système intégré sur puce se confronte au problème d'explosion combinatoire. Les techniques d'abstractions sont des méthodes efficaces pour alléger ce problème. Nous exposons un algorithme d'abstraction basé sur la spécification de chaque composant. Cet algorithme construit une structure de Kripke représentant un sous-ensemble des formules CTL tirées de la spécification. Cette construction se place dans un contexte de raffinement d'abstraction guidé par l'étude du contre-exemple produit par le model checker. Les premières expérimentations que nous avons réalisées montrent un gain considérable en temps de vérification et un accroissement conséquent de la taille du système vérifié. Ces résultats nous confortent sur l'intérêt de cette méthode d'abstraction
Optimisation du débit pour des applications linéaires multi-tâches sur plateformes distribuées incluant des temps de reconfiguration by Mathias Coqblin( )

2 editions published in 2015 in French and held by 2 WorldCat member libraries worldwide

Les travaux présentés dans cette thèse portent sur l'ordonnancement d'applications multi-tâches linéaires de type workflow sur des plateformes distribuées. La particularité du système étudié est que le nombre de machines composant la plateforme est plus petit que le nombre de tâches à effectuer. Dans ce cas les machines sont supposées être capables d'effectuer toutes les tâches de l'application moyennant une reconfiguration, sachant que toute reconfiguration demande un temps donné dépendant ou non des tâches. Le problème posé est de maximiser le débit de l'application,c'est à dire le nombre moyen de sorties par unité de temps, ou de minimiser la période, c'est à dire le temps moyen entre deux sorties. Par conséquent le problème se décompose en deux sous problèmes: l'assignation des tâches sur les machines de la plateforme (une ou plusieurs tâches par machine), et l'ordonnancement de ces tâches au sein d'une même machine étant donné les temps de reconfiguration. Pour ce faire la plateforme dispose d'espaces appelés buffers, allouables ou imposés, pour stocker des résultats de production temporaires et ainsi éviter d'avoir à reconfigurer les machines après chaque tâche. Si les buffers ne sont pas pré-affectés nous devons également résoudre le problème de l'allocation de l'espace disponible en buffers afin d'optimiser l'exécution de l'ordonnancement au sein de chaque machine. Ce document est une étude exhaustive des différents problèmes associés à l'hétérogénéité de l'application ; en effet si la résolution des problèmes est triviale avec des temps de reconfiguration et des buffers homogènes, elle devient bien plus complexe si ceux-ci sont hétérogènes. Nous proposons ainsi d'étudier nos trois problèmes majeurs pour différents degrés d'hétérogénéité de l'application. Nous proposons des heuristiques pour traiter ces problèmes lorsqu'il n'est pas possible de trouver une solution algorithmique optimale
Dimensionnement des mémoires pour les applications de traitement de flux de données by Mohamed Benazouz( Book )

2 editions published in 2012 in English and held by 2 WorldCat member libraries worldwide

Les récents travaux en conception électronique au niveau système (ESL) et la synthèse haut niveau (HLS) ont permis l'essor des techniques d'exploration de l'espace de conception dans le but de satisfaire des exigences croissantes tout en réduisant le temps de mise sur le marché. Plusieurs métriques sont utilisées durant ce processus d'exploration; le débit constitue une des plus importantes mesures de performance d'une application de traitement de flux de données. Un des facteurs qui limite le débit atteint est la taille des mémoires tampons (buffers) assurant l'échange de données entre les différentes tâches d'une application. Des méthodes exactes ou heuristiques ont été proposées ces dernières années pour calculer la taille des buffers sous contrainte de débit. Cependant, elles ne sont pas satisfaisantes du fait de leur temps de calcul prohibitif. Le but de cette thèse est de proposer une approche analytique permettant de résoudre en temps polynomial le problème de minimisation de la taille globale des mémoires tampons tout en garantissant d'atteindre un débit préfixé. Deux modèles de calcul (MoC) très répandus ont été retenus pour décrire le parallélisme des tâches et les taux de transfert de données entre elles: graphes d'événements généralisés temporisés (TMWEG) et graphes cyclo-static dataflow (CSDFG). En supposant que les tâches sont exécutées périodiquement, nous montrons que le problème d'optimisation avec contrainte de débit minimum est un programme linéaire en nombres entiers (PLNE). Nous proposons alors des algorithmes polynomiaux exacts pour certaines sous-classes de graphes ainsi qu'un algorithme polynomial 2-approché dans le cas général
Scheduling and Advanced Process Control in semiconductor Manufacturing by Ali Obeid( )

1 edition published in 2012 in English and held by 2 WorldCat member libraries worldwide

In this thesis, we discussed various possibilities of integrating scheduling decisions with information and constraints from Advanced Process Control (APC) systems in semiconductor Manufacturing. In this context, important questions were opened regarding the benefits of integrating scheduling and APC. An overview on processes, scheduling and Advanced Process Control in semiconductor manufacturing was done, where a description of semiconductor manufacturing processes is given. Two of the proposed problems that result from integrating bith systems were studied and analyzed, they are :Problem of Scheduling with Time Constraints (PTC) and Problem of Scheduling with Equipement health Factor (PEHF). PTC and PEHF have multicriteria objective functions.PTC aims at scheduling job in families on non-identical parallel machines with setup times and time constraints.Non-identical machines mean that not all miachines can (are qualified to) process all types of job families. Time constraints are inspired from APC needs, for which APC control loops must be regularly fed with information from metrology operations (inspection) within a time interval (threshold). The objective is to schedule job families on machines while minimizing the sum of completion times and the losses in machine qualifications.Moreover, PEHF was defined which is an extension of PTC where scheduling takes into account the equipement Health Factors (EHF). EHF is an indicator on the state of a machine. Scheduling is now done by considering a yield resulting from an assignment of a job to a machine and this yield is defined as a function of machine state and job state
Contribution à l'ordonnancement post-pronostic de plateformes hétérogènes et distribuées : approches discrète et continue by Nathalie Herr( )

2 editions published in 2015 in French and held by 2 WorldCat member libraries worldwide

This thesis addresses the problem of maximizing the production horizon of a heterogeneous distributed platform composed of parallel machines and which has to provide a global production service. Each machine is supposed to be able to provide several throughputs corresponding to different operating conditions. It is assumed that using a machine with degraded performances compared to nominal ones allows to extend its useful life before maintenance. The study falls within the decisional step of PHM (Prognostics and Health Management), in which a prognostics phase allows to determine remaining useful lives of machines. The optimization problem consists in determining the set of machines to use at each time and a running profile for each of them so as to maximize the production horizon before maintenance. Machines running profiles are defined on the basis of two models. First one depicts the behavior of machines used with a discrete number of performances. For this case, the problem complexity is first studied considering many variants of the optimization problem. Several optimal and sub-optimal resolution methods are proposed to deal with the scheduling problem. Several sub-optimal resolution methods are then proposed for the second model, which applies to machines whose throughput rate can vary continuously between two bounds. These research works allow to determine the time before failure of a system on the basis of its components remaining useful lives
Modélisation de la variabilité des flux de production en fabrication microélectronique by Kean Dequeant( )

1 edition published in 2017 in English and held by 2 WorldCat member libraries worldwide

In the context of Industry 4.0 and the More than Moore's paradigm, delivery precision and short cycle times are essential to the competitiveness of High Mix Low Volume semiconductor manufacturing and future industries in general. So called “variability” however creates uncontrolled and unpredictable “traffic-jams” in manufacturing systems, increasing cycle times and decreasing the systems' tractability. This research, a CIFRE PhD between the GSCOP laboratory and STMicroelectronics, addresses this issue of variability in complex manufacturing environment. We first conducted, in the first part of the manuscript, an in-depth study of “variability”: we approached the notion through its consequences in manufacturing systems, clarified that the variability was about the workflow, introducing the notion of workflow variability and measures that come with it, and identified the main sources of variability through a literature review and real-world examples. We focused in the second part of this manuscript on the integration of workflow variability in production management tools: We showed how integrating the stable consequences of workflow variability can improve WIP projections in complex systems and increase the control on such systems, proposed a new tool (the Concurrent WIP) to better measure the performances of systems subject to high workflow variability, and showed that complex “dependency” mechanisms play a key role in workflow variability yet are not integrated in any model. Finally, the third and last part of the manuscript organized perspectives for variability reduction: based on the work of this manuscript, we showed a framework for variability reduction on the short term, and proposed a direction for medium and long-term research
KNIK : Routeur global pour la plate-forme CORIOLIS by Damien Dupuis( Book )

2 editions published in 2009 in French and held by 2 WorldCat member libraries worldwide

L'évolution récente des technologies nanométriques et la taille des problèmes à traiter ont entraîné un regain d'intérêt pour l'étude et le développement d'outils de placement / routage dans le milieu académique. Le but de cette thèse est l'étude et la mise en oeuvre d'un outil de routage global. L'objectif principal de la phase de routage global est d'effectuer la répartition globale des interconnexions à partir d'une modélisation simplifiée des ressources de routage. La solution produite est définie par un ensemble d'arbres de Steiner dont chacun relie les connecteurs du net auquel il est associé. Dans cette thèse, nous présentons KNIK l'outil de routage global intégré à la plate-forme CORIOLIS. Nous modélisons les ressources à l'aide d'une structure mémoire compacte et légère qui nous permet de mettre en oeuvre une approche séquentielle basée sur l'algorithme de Dijkstra et une méthode originale pour résoudre les problèmes de sur-congestion. Nous avons développé un outil d'analyse et de visualisation nous permettant de valider et d'évaluer notre outil. Les performances obtenues sont comparables à celles des meilleurs routeurs globaux académiques actuels
Analyse d'applications flot de données pour la compilation multiprocesseur by Bruno Bodin( Book )

2 editions published in 2013 in French and held by 2 WorldCat member libraries worldwide

Les systèmes embarqués sont des équipements électroniques et informatiques, soumis à de nombreuses contraintes et dont le fonctionnement doit être continu.Pour définir le comportement de ces systèmes, les modèles de programmation dataflows sont souvent utilisés.Ce choix de modèle est motivé d'une part, parce qu'ils permettent de décrire un comportement cyclique, nécessaire aux systèmes embarqués; et d'autre part, parce que l'analyse de ces modèles peut fournir des garanties de fonctionnement et de performance essentielles.La société Kalray propose une architecture embarquée, le MPPA. Il est accompagné du langage SigmaC. Ce langage permet de décrire des applications sous forme d'un modèle dataflow Cyclo-Static Dataflow Graph (CSDFG). Cependant, les CSDFG générés par ce langage sont souvent trop complexes pour permettre l'utilisation des techniques d'analyse existantes. L'objectif de cette thèse est de fournir des outils algorithmiques qui résolvent les étapes d'analyse d'une application SigmaC dans un temps raisonnable, et sur de grande instances.Nous étudions trois problèmes d'analyse : la vivacité, l'évaluation du débit, et le dimensionnement mémoire.Pour chacun de ces problèmes, nous fournissons des méthodes algorithmiques rapides, et dont l'efficacité a été vérifiée expérimentalement.Les méthodes que nous proposons sont basées sur les ordonnancements périodiques et fournissent des résultats approchés.Pour pallier cette faiblesse, nous proposons aussi des outils basés sur les ordonnancements K-périodiques.Ces ordonnancements généralisent les ordonnancement périodiques et nous permettrons de concevoir des méthodes d'analyse plus efficaces
Fault-tolerant and energy-aware algorithms for workflows and real-time systems by Li Han( )

1 edition published in 2020 in English and held by 1 WorldCat member library worldwide

This thesis is focused on the two major problems in the high performance computing context: resilience and energyconsumption.To satisfy the computing power required by modern scientific research, the number of computing units insupercomputers increases dramatically in the past years. This leads to more frequent errors than expected. Obviously,failure handling is critical for highly parallel applications that use a large number of components for a significant amountof time. Otherwise, one may spend infinite time re-executing. At the other side, power management is necessary due toboth monetary and environmental constraints. Especially because resilience often calls for redundancy in time and/or inspace , which in turn consumes extra energy. In addition, technologies that reduce energy consumption often havenegative effects on performance and resilience.In this context, we re-design scheduling algorithms to investigate trade-offs between performance, resilience and energyconsumption. The first part is focused around task graph scheduling and fail-stop errors. Which task should becheckpointed (redundancy in time) in order to minimize the total execution time? The objective is to design optimalsolutions for special classes of task graphs, and to provide general-purpose heuristics for arbitrary ones. Then in thesecond part of the thesis, we consider periodically independent task sets, which is the context of real-time scheduling,and silent errors. We investigate the number of replicas (redundancy in space) that are needed, and the interplay betweendeadlines, energy minimization and reliability
Modélisation des systèmes de transport multimodaux de grands réseaux by Kwami Sossoe( )

1 edition published in 2017 in English and held by 1 WorldCat member library worldwide

The objective of this work consists on the modeling of traffic flow of a large multimodaltransportation network. The work is organized in two parts: a theoretical study part anda development part. The theoretical study emphasizes on how a multimodal network canbe model and how its performance in terms of supply can be optimized. To do so, threemain studies are discussed: the traffic flow prediction and regulation on large surface net-works, the vehicular multimodality in big surface networks taking into account new forms ofmobility, and finally the impact of the information on the cost of the itineraries. The devel-opment part consists on the conception of a traffic flow simulator to regulate the vehicularmultimodal traffic. The developed simulator should assist transport operators and territorialcommunities in their traffic flow management strategies
Modèle de calcul et d'exécution pour des applications flots de données dynamiques avec contraintes temps réel by Xuan Khanh Do( )

1 edition published in 2016 in English and held by 1 WorldCat member library worldwide

There is an increasing interest in developing applications on homo- and heterogeneous multiprocessor platforms due to their broad availability and the appearance of many-core chips, such as the MPPA-256 chip from Kalray (256 cores) or TEGRA X1 from NVIDIA (256 GPU and 8 64-bit CPU cores). Given the scale of these new massively parallel systems, programming languages based on the dataflow model of computation have strong assets in the race for productivity and scalability, meeting the requirements in terms of parallelism, functional determinism, temporal and spatial data reuse in these systems. However, new complex signal and media processing applications often display several major challenges that do not fit the classical static restrictions: 1) How to provide guaranteed services against unavoidable interferences which can affect real-time performance?, and 2) How these streaming languages which are often too static could meet the needs of emerging embedded applications, such as context- and data-dependent dynamic adaptation? To tackle the first challenge, we propose and evaluate an analytical scheduling framework that bridges classical dataflow MoCs and real-time task models. In this framework, we introduce a new scheduling policy noted Self-Timed Periodic (STP), which is an execution model combining Self-Timed scheduling (STS), considered as the most appropriate for streaming applications modeled as data-flow graphs, with periodic scheduling: STS improves the performance metrics of the programs, while the periodic model captures the timing aspects. We evaluate the performance of our scheduling policy for a set of 10 real-life streaming applications and find that in most of the cases, our approach gives a significant improvement in latency compared to the Strictly Periodic Schedule (SPS), and competes well with STS. The experiments also show that, for more than 90% of the benchmarks, STP scheduling results in optimal throughput. Based on these results, we evaluate the latency between initiation times of any two dependent actors, and we introduce a latency-based approach for fault-tolerant stream processing modeled as a Cyclo-Static Dataflow (CSDF) graph, addressing the problem of node or network failures. For the second challenge, we introduce a new dynamic Model of Computation (MoC), called Transaction Parameterized Dataflow (TPDF), extending CSDF with parametric rates and a new type of control actor, channel and port to express dynamic changes of the graph topology and time-triggered semantics. TPDF is designed to be statically analyzable regarding the essential deadlock and boundedness properties, while avoiding the aforementioned restrictions of decidable dataflow models. Moreover, we demonstrate that TPDF can be used to accurately model task timing requirements in a great variety of situations and introduce a static scheduling heuristic to map TPDF to massively parallel embedded platforms. We validate the model and associated methods using a set of realistic applications and random graphs, demonstrating significant buffer size and performance improvements (e.g., throughput) compared to state of the art models including Cyclo-Static Dataflow (CSDF) and Scenario-Aware Dataflow (SADF)
Étude probabiliste des contraintes de bout en bout dans les systèmes temps réel by Cristian Maxim( )

1 edition published in 2017 in English and held by 1 WorldCat member library worldwide

In our times, we are surrounded by technologies meant to improve our lives, to assure its security, or programmed to realize different functions and to respect a series of constraints. We consider them as embedded systems or often as parts of cyber-physical systems. An embedded system is a microprocessor-based system that is built to control a function or a range of functions and is not designed to be programmed by the end user in the same way that a PC is. The Worst Case Execution Time (WCET) of a task represents the maximum time it can take to be executed. The WCET is obtained after analysis and most of the time it cannot be accurately determined by exhausting all the possible executions. This is why, in industry, the measurements are done only on a subset of possible scenarios (the one that would generate the highest execution times) and an execution time bound is estimated by adding a safety margin to the greatest observed time. Amongst all branches of real-time systems, an important role is played by the Critical Real-Time Embedded Systems (CRTES) domain. CRTESs are widely being used in fields like automotive, avionics, railway, health-care, etc. The performance of CRTESs is analyzed not only from the point of view of their correctness, but also from the perspective of time. In the avionics industry such systems have to undergo a strict process of analysis in order to fulfill a series of certification criteria demanded by the certifications authorities, being the European Aviation Safety Agency (EASA) in Europe or the Federal Aviation Administration (FAA) in United States. The avionics industry in particular and the real-time domain in general are known for being conservative and adapting to new technologies only when it becomes inevitable. For the avionics industry this is motivated by the high cost that any change in the existing functional systems would bring. Any change in the software or hardware has to undergo another certification process which cost the manufacturer money, time and resources. Despite their conservative tendency, the airplane producers cannot stay inactive to the constant change in technology and ignore the performance benefices brought by COTS processors which nowadays are mainly multi-processors. As a curiosity, most of the microprocessors found in airplanes flying actually in the world, have a smaller computation power than a modern home PC. Their chips-sets are specifically designed for embedded applications characterized by low power consumption, predictability and many I/O peripherals. In the actual context, where critical real-time systems are invaded by multi-core platforms, the WCET analysis using deterministic approaches becomes difficult, if not impossible. The time constraints of real-time systems need to be verified in the context of certification. This verification, done during the entire development cycle, must take into account architectures more and more complex. These architectures increase the cost and complexity of actual, deterministic, tools to identify all possible time constrains and dependencies that can occur inside the system, risking to overlook extreme cases. An alternative to these problems is the probabilistic approach, which is more adapted to deal with these hazards and uncertainty and which allows a precise modeling of the system. 2. Contributions. The contribution of the thesis is three folded containing the conditions necessary for using the theory of extremes on executions time measurements, the methods developed using the theory of extremes for analyzing real-time systems and experimental results. 2.1. Conditions for use of EVT in the real-time domain. In this chapter we establish the environment in which our work is done. The use of EVT in any domain comes with a series of restrictions for the data being analyzed. In our case the data being analyzed consists in execution time measurements
Ordonnancement temps réel multiprocesseur pour la réduction de la consommation énergétique des systèmes embarqués by Vincent Legout( )

1 edition published in 2014 in French and held by 1 WorldCat member library worldwide

Réduire la consommation énergétique des systèmes temps réel embarqués multiprocesseurs est devenu un enjeu important notammentpour augmenter leur autonomie. Nous réduisons la consommation statique des processeurs en exploitant leurs états basseconsommation. Dans un état basse-consommation, la consommation énergétique est fortement réduite mais un délai de transition et une pénalité sont nécessaires pour revenir à l'état actif. Nous proposons dans cette thèse les premiers algorithmes d'ordonnancement tempsréel multiprocesseurs optimaux pour réduire la consommation énergétique des systèmes temps réel dur et des systèmes temps réel àcriticité mixte. Ces algorithmes d'ordonnancement permettent d'activer les état basse-consommation les plus économes en énergie.Chaque algorithme d'ordonnancement est divisé en deux parties. La première partie hors-ligne génère un ordonnancement en utilisant laprogrammation linéaire en nombres entiers pour minimiser la consommation énergétique. La seconde partie est en-ligne et augmente lataille des périodes d'inactivité les tâches terminent leur exécution plus tôt que prévu. Dans le cadre des systèmes temps réel à criticitémixte, nous profitons du fait que les tâches de plus faible criticité peuvent tolérer des dépassements d'échéances pour être plus agressifhors-ligne afin de réduire davantage la consommation énergétique. Les résultats montrent que les algorithmes proposés utilisent demanière plus efficace les états basse-consommation. La consommation énergétique lorsque ceux-ci sont activés est en effet jusqu'à dix fois plus faible qu'avec les algorithmes d'ordonnancement multiprocesseurs existants
Méthode de conception de systèmes temps réels embarqués multi-coeurs en milieu automobile by Enagnon Cédric Klikpo( )

1 edition published in 2018 in English and held by 1 WorldCat member library worldwide

The increasing complexity of embedded applications in modern cars has increased the need of computing power. To meet this need, the European automotive standard AUTOSAR has introduced the use of \multicore platforms. However, \multicore platform for critical automotive applications raises several issues. In particular, it is necessary to respect the functional specification and to guarantee deterministically the data exchanges between cores. In this thesis, we consider multi-periodic systems specified and validated with \mat. So, we developed a framework to deploy \mat applications on AUTOSAR \multicore. This framework guarantees the functional and temporal determinism and exploits the parallelism. Our contribution is threefold. First, we identify the communication mechanisms in \mat. Then, we prove that the dataflow in a multi-periodic \mat system is modeled by a SDFG. The SDFG formalism is an excellent analysis tool to exploit the parallelism. In fact, it is very popular in the literature and it is widely studied for the deployment of dataflow applications on multi/many-core. Then, we develop methods to realize the dataflow expressed by the SDFG in a preemptive \rt scheduling. These methods use theoretical results on SDFGs to guarantee deterministic precedence constraints without using blocking synchronization mechanisms. As such, both the functional and temporal determinism are guaranteed. Finally, we characterize the impact of dataflow requirements on tasks. We propose a partitioning technique that minimizes this impact. We show that this technique promotes the construction of a partitioning and a feasible scheduling when it is used to initiate multi-objective research and optimization algorithms. %As such, we reduce the number of design iterations and shorten the design time
Réconcilier performance et prédictibilité sur un many-coeur en utilisant des techniques d'ordonnancement hors-ligne by Manel Fakhfakh( )

1 edition published in 2014 in English and held by 1 WorldCat member library worldwide

On-chip networks (NoCs) used in multiprocessor systems-on-chips (MPSoCs) pose significant challenges to both on-line (dynamic) and off-line (static) real-time scheduling approaches. They have large numbers of potential contention points, have limited internal buffering capabilities, and network control operates at the scale of small data packets. Therefore, efficient resource allocation requires scalable algorithms working on hardware models with a level of detail that is unprecedented in real-time scheduling. We consider in this thesis a static scheduling approach, and we target massively parallel processor arrays (MPPAs), which are MPSoCs with large numbers (hundreds) of processing cores. We first identify and compare the hardware mechanisms supporting precise timing analysis and efficient resource allocation in existing MPPA platforms. We determine that the NoC should ideally provide the means of enforcing a global communications schedule that is computed off-line (before execution) and which is synchronized with the scheduling of computations on processors. On the software side, we propose a novel allocation and scheduling method capable of synthesizing such global computation and communication schedules covering all the execution, communication, and memory resources in an MPPA. To allow an efficient use of the hardware resources, our method takes into account the specificities of MPPA hardware and implements advanced scheduling techniques such as pre-computed preemption of data transmissions. We evaluate our technique by mapping two signal processing applications, for which we obtain good latency, throughput, and resource use figures
Ordonnancement des tâches avec des dépendances et des temps d'exécution probabilistes sur processeur multi-cœurs by Slim Ben Amor( )

1 edition published in 2020 in English and held by 1 WorldCat member library worldwide

The continuous integration of new functionality increases the complexity of embedded systems, while each functionality might impose precedence constraints between the programs fulfilling it. In addition, the prevalence of several processors may create the illusion of higher computation capacity easing the associated scheduling problem. However, this capacity is not exploitable in critical real time systems because of the increased variability of the execution times due to processor features designed to provide excellent average time behavior and not necessarily ensuring small worst case bounds. This difficulty is added to the existence of scheduling anomalies when the systems are built a top of multi-core processors. In this thesis, we consider partitioned scheduling of DAG tasks defining precedence constraints. The variability of execution times is described by probability distributions. We propose a Response Time Analysis (RTA)"based on iterative equations and probabilistic operators for independent distributions. For dependent distributions, we model them using Bayesian network. We also use C-space representation combined with SVM classification to estimate the schedulability probability. Moreover, we provide techniques to define priority and sub-task partitioning in a way to increase parallelism. We also decrease analysis complexity by reducing size of graph without altering the precedence structures
 
moreShow More Titles
fewerShow Fewer Titles
Audience Level
0
Audience Level
1
  General Special  
Audience level: 0.00 (from 0.00 for Contributi ... to 0.00 for Contributi ...)

Associated Subjects
Alternative Names
Munier, Alix

Languages
French (18)

English (11)