WorldCat Identities

Collet, Christine

Overview
Works: 50 works in 72 publications in 3 languages and 151 library holdings
Genres: Conference papers and proceedings 
Roles: Thesis advisor, Author, Opponent, Editor, Other, Contributor, Honoree, Narrator
Publication Timeline
.
Most widely held works by Christine Collet
Objets et bases de données : le SGBD O2 by Michel Adiba( Book )

2 editions published in 1993 in French and held by 61 WorldCat member libraries worldwide

2001 International Database Engineering & Applications Symposium : proceedings : 16-18 July, 2001, Grenoble, France by International Database Engineering and Applications Symposium( )

3 editions published between 2001 and 2002 in English and held by 7 WorldCat member libraries worldwide

Les formulaires complexes dans les bases de données multimédia by Christine Collet( )

4 editions published in 1987 in French and held by 7 WorldCat member libraries worldwide

Un modèle de formulaires complexes et les opérations associes sont présentes. Il s'attache à la classe des modèles de données relationnelles "non sons première forme normale". Il offre un cadre formel pour décrire et traiter la structure, la dynamique et la présentation des objets d'une application comme des formulaires
Support mémoire adaptable pour serveurs de données répartis by Olivier Lobry( )

2 editions published in 2000 in French and held by 3 WorldCat member libraries worldwide

Du fait qu'il constitue un passage obligé du flux d'information, un serveur de données joue un rôle central dans l'architecture d'un système d'information (SI). Il doit en conséquence implanter des mécanismes de gestion de ressources efficaces et des politiques de gestion adaptées aux caractéristiques comportementales du SI. Il n'est malheureusement pas possible d'offrir un serveur de données universel capable de répondre aux exigences de tous les SI. Ceux-ci diffèrent en effet significativement par le type des informations qu'ils traitent, la nature des traitements effectués, les propriétés de traitement qu'ils garantissent, les caractéristiques du matériel sous-jacent, etc. De ce fait, chaque système d'information intègre son ou ses propres serveurs de données implantant des politiques de gestion figées. Les inconvénients d'une telle approche sont loin d'être négligeables. Tout d'abord, la ré-implantation de mécanismes élémentaires de gestion de ressources augmente le coût de conception. Ensuite, la rigidité comportementale réduit considérablement la réactivité à l'évolution tant en qualité qu'en quantité des informations, traitements et ressources matérielles. Enfin, l'opacité des tels systèmes rend difficile leur coexistence sur une même plate-forme. Cette thèse montre qu'il n'existe pas de politique de gestion de la mémoire idéale. Plutôt que d'essayer d'offrir un serveur idéal, elle tente de définir une infrastructure permettant de concevoir des serveurs de données adaptés et évolutifs. Elle adresse plus particulièrement le problème de la gestion de la mémoire physique et se place dans le contexte des grappes de machines. Elle propose le support mémoire adaptable ADAMS basé sur un modèle de gestion hiérarchique et un modèle de communication par événements. Ce support facilite l'intégration de différents types de politiques tout en séparant bien leurs rôles respectifs sans faire d'hypothèse sur leur inter-dépendances. Une intégration d'ADAMS à la mémoire virtuelle répartie permanente et adaptable du système Arias est ensuite exposée. ADAMS étend les caractéristiques de ce système afin de prendre en compte les besoins particulier de gestion des serveurs de données tout en réduisant le grain d'adaptabilité. Nous illustrons à travers un exemple comment le support résultant permet d'implanter un serveur de données dont les politiques de gestion peuvent être adaptées dynamiquement
Un modèle d'exécution paramétrique pour systèmes de bases de données actifs by T Coupaye( )

2 editions published in 1996 in French and held by 3 WorldCat member libraries worldwide

Un système de bases de données actif est capable d'exécuter automatiquement des actions prédéfinies en réponse a des évènements spécifiques lorsque certaines conditions sont satisfaites. Les règles actives, de la forme évènement-condition-action, sont au cœur de cette approche. Dans cette thèse, nous nous intéressons aux modèles d'exécution des systèmes actifs. Le modèle d'exécution d'un système actif décrit quand et comment (ordonnancement, synchronisation) sont exécutées, au cours d'une application, les règles déclenchées par l'exécution d'une transaction. Nous proposons tout d'abord une taxonomie et une représentation graphique des modèles d'exécution des systèmes actifs. Nous exposons ensuite un modèle d'exécution paramétrique nomme fl'are (flexible active rule execution). Une caractéristique essentielle de ce modèle est de considérer des modules de règles chaque module étant destine à une utilisation particulière des règles. On peut spécifier, d'une part, le comportement de chaque règle d'un module, et d'autre part, la stratégie d'exécution de chaque module. Il suffit, pour cela, de choisir une valeur pour chacun des paramètres proposes parmi un ensemble de valeurs prédéfinies. Nous donnons également une sémantique dénotationnelle (ou fonctionnelle) du modèle. Nous montrons que ce formalisme fournit une spécification implantable que nous utilisons dans le cadre de l'expérimentation que nous menons autours de naos un mécanisme de règles actives pour le SGBD a objets O#2 afin de remplacer son moteur d'exécution par fl'are
Un service de règles actives pour fédérations de bases de données by Helena Grazziottin Ribeiro( )

2 editions published in 2000 in French and held by 3 WorldCat member libraries worldwide

Dans les SGBD actifs la notion de réaction automatique à des événements est offerte au travers de règles actives de la forme Événement-Condition-Action. Ces règles sont gérées par des mécanismes spécifiques, dits actifs, intégrés dans les SGBD. Nous nous intéressons à l'introduction de ces mécanismes dans les fédérations de données. Les fédérations sont caractérisées par la distribution et l'autonomie de leurs composants et les mécanismes actifs doivent donc s'adapter à de telles caractéristiques. Notre approche propose de mettre en œuvre ces mécanismes sous forme d'un service de règles et un service d'événements qui coopèrent. Dans cette thèse nous nous intéressons plus précisément à la définition et à la structuration d'un service de règles. Nous proposons un service adaptable nommé ADRUS (pour ADaptable RUle Service) qui permet la construction et le contrôle de gestionnaires de règles spécialisés selon les besoins des applications de la fédération bases de données. Les modèles implantés par ces gestionnaires sont spécifiés à partir des trois métamodèles offerts par le service : le métamodèle de définition et de manipulation de règles, le métamodèle d'exécution de règles et le métamodèle de coopération entre gestionnaires. Notre travail se concentre sur la définition de la structure et des caractéristiques des métamodèles. Nous modélisons la coopération entre gestionnaires de règles, d'événements et de transactions car celle-ci est fondamentale pour l'exécution des règles dans une fédération. Nous présentons une expérience d'utilisation de notre service dans le cadre de la mise en œuvre de systèmes ODAS. Ces systèmes sont basés sur des services d'événements et de règles ouverts et répartis (Open and Distributed Active Services) utilisés au niveau d'une fédération de bases de données dans le contexte d'une application de type commerce électronique
Une approche pour la construction d'évaluateurs adaptables de requêtes by Tuyet-Trinh Vu( Book )

2 editions published in 2005 in French and held by 2 WorldCat member libraries worldwide

This dissertation presents an approach for building adaptable query processors. Adaptable query processor is able to be adapted and self-adapted to application requirements and execution environment. The proposed approach considers three levels of adaptability which are static adaptability (at building time), personalization (at starting query execution) and dynamic adaptability (during query execution). Our principle contributions is based on the proposed framework named QBF (Query Broker Framework). QBF consists in separating and abstracting query functionalities so as to enable their reuse and adaptability. Based on QBF, three levels of adaptability are analyzed and we proposed mechanisms for ensuring them (instantiating QBF, personalized query evaluation and interactive query evaluation, respectively). The analysis of these mechanisms shows the importance and advantage of the separation and the abstraction of query processors functionalities proposed within QBF. We have implemented QBF and developed some instances (i.e. query processors) in order to validate our approach. We have also conducted some experimental evaluations on the reuse and adaptation overheads in QBF in order to evaluate our approach, implemented mechanisms and to help programmers in choice of appropriated components in building their query processors with regarding the overhead occasioned by adaptation
Les formulaires complexes dans les bases de données multimédia by Christine Collet( )

1 edition published in 2008 in French and held by 2 WorldCat member libraries worldwide

Un modèle de formulaires complexes et les opérations associes sont présentes. Il s'attache à la classe des modèles de données relationnelles "non sons première forme normale". Il offre un cadre formel pour décrire et traiter la structure, la dynamique et la présentation des objets d'une application comme des formulaires
HyQoZ - Optimisation de requêtes hybrides basée sur des contrats SLA by Carlos-Manuel Lopez-Enriquez( )

1 edition published in 2014 in French and held by 2 WorldCat member libraries worldwide

On constate aujourd'hui une explosion de la quantité de données largement distribuées et produites par différents dispositifs (e.g. capteurs, dispositifs informatiques, réseaux, processus d'analyse) à travers de services dits de données. Dans ce contexte, il s'agit d'évaluer des requêtes dites hybrides car ils intègrent des aspects de requêtes classiques, mobiles et continues fournies par des services de données, statiques ou mobiles, en mode push ou pull. L'objectif de ma thèse est de proposer une approche pour l'optimisation de ces requêtes hybrides basée sur des préférences multicritère (i.e. SLA - Service Level Agreement). Le principe consiste à combiner les services de données et calcule pour construire un évaluateur de requêtes adapté au SLA requis par l'utilisateur, tout en considérant les conditions de QoS des services et du réseau
Canevas de domaines pour l'intégration de données by Mourad Alia( Book )

2 editions published in 2005 in French and held by 2 WorldCat member libraries worldwide

Beaucoup de travaux de recherche autour des systèmes d'intégration de données se sont concentrés sur les problémes liés aux schémas, aux langages et au traitement de requÍtes. Dans cette thèse, nous nous intéressons à la problématique de construction de tels systèmes. Nous appliquons les concepts architecturaux des systèmes répartis, notamment de canevas et de composant logiciel, pour proposer un intergiciel d'intégration de données offrant quatre niveaux d'adaptabilité. Au niveau architectural, nous définissons le canevas de domaine de données qui est le composant central de l'intégration. Un système d'intégration de données est défini par la composition de domaines de données. Au niveau modèle de données, nous adoptons un modèle hybride doté d'un typage flexible, associé au langage d'expression des vues de domaines, qui permet de prendre en compte l'hétérogénéité structurelle des sources (ou domaines) de données à intégrer. Au niveau langage de requêtes, nous proposons un canevas d'expression qui permet de décrire les requêtes à la fois pour l'intégration et pour l'interrogation de domaines, indépendamment d'une syntaxe particulière. Au niveau optimisation, nous proposons un canevas d'optimisation de requêtes adaptable, dans le sens ou il permet de construire et de supporter diverses stratégies de recherche. Le canevas d'expression et le canevas d'optimisation de requÍte ont été implantés dans le cadre du consortium ObjectWeb. Ces implantations ont été utilisées dans la mise en oeuvre de deux standards de persistance d'objets Java, à savoir JDO (Java Data Object) et EJB-CMP (Container Managed Persistance). Dans le contexte de recherche de composants pour des besoins d'administration des systèmes à large échelle, nous avons proposé une utilisation de notre intergiciel pour proposer un service de requête qui permette de rechercher des composants dans un gisement et dans des systèmes en cours d'exécution, par introspection associative
Infrastructure à base de règles actives pour la décision dans des systèmes autonomes à composants by Nagapraveen Jayaprakash( Book )

2 editions published in 2008 in English and held by 2 WorldCat member libraries worldwide

The ability to (re)act automatically to perform corrective actions in response to the occurrence of situations of interest (events) is a key feature of autonc computing. ln active database systems, it is incorporated by Event-Condition-Action (or active) rules. We propose a rule model, composed of a rule defir model and a rule execution mode!. We propose equally an architecture for the integration of rules into component-based systems in which they as weil . their semantics (execution model, behaviour) are represented as components, which permits i) to construct personalized rule-based systems and ii) to dynamically modify them and their semantics in the same manner as the underlying system. These foundations form the basis of an extensible framewoi which is a library of components to construct the various active mechanisms
BDA '99 : actes des 15èmes Journées Bases de données avancées, Bordeaux, 25-27 octobre 1999 by Journées Bases de données avancées( Book )

1 edition published in 1999 in English and held by 2 WorldCat member libraries worldwide

Evaluation des requêtes hybrides basées sur la coordination des services by Victor Cuevas Vicenttin( )

1 edition published in 2011 in French and held by 2 WorldCat member libraries worldwide

Recent trends in information technologies result in a massive proliferation of data which are carried over different kinds of networks, produced in either on-demand or streaming fashion, generated and accessible by a variety of devices, and that can involve mobility aspects. This thesis presents an approach for the evaluation of hybrid queries that integrate the various aspects involved in querying continuous, mobile and hidden data in dynamic environments. Our approach consists of representing such an hybrid query as a service coordination comprising data and computation services. A service coordination is specified by a query workflow and additional operator workflows. A query workflow represents an expression built with the operators of our data model. This workflow is constructed from a query specified in our proposed SQL-like query language, HSQL, by an algorithm we developed based on known results of database theory. Operator workflows enable to compose computation services to enable the evaluation of a particular operator. HYPATIA, a service-based hybrid query processor, implements and validates our approach
Optimisation des requêtes distribuées par apprentissage by Lourdes Martinez Medina( )

1 edition published in 2014 in English and held by 2 WorldCat member libraries worldwide

Les systèmes de gestion de données distribuées deviennent de plus en plus complexes. Ils interagissent avec des réseaux de dispositifs fixes et/ou mobiles, tels que des smartphones ou des tablettes, dispositifs hétérogènes, autonomes et possédant des limitations physiques. Ces dispositifs exécutent des applications permettant l'interaction des usagers (i.e. jeux virtuels, réseaux sociaux). Ces applications produisent et consomment des données à tout moment voire même en continu. Les caractéristiques de ces systèmes ajoutent des dimensions au problème de l'optimisation de requêtes, telles que la variabilité des objectifs d'optimisation, l'absence d'information sur les données (métadonnées) ou le manque d'une vision globale du système. Les techniques traditionnelles d'optimisation des requêtes n'abordent pas (ou très peu) les systèmes autonomes. Elles se basent sur les métadonnées et font des hypothèses très fortes sur le comportement du système. En plus, la majorité de ces techniques d'optimisation ciblent uniquement l'optimisation du temps d'exécution. La difficulté d'évaluation des requêtes dans les applications modernes incite à revisiter les techniques traditionnelles d'optimisation. Cette thèse fait face aux défis décris précédemment par l'adaptation du paradigme du Raisonnement à partir de cas (CBR pour Case-Based Reasoning) au problème de l'optimisation des requêtes. Cette adaptation, associée à une exploration pseudo-aléatoire de l'espace de solutions fournit un moyen pour optimiser des requêtes dans les contextes possédant très peu voire aucune information sur les données. Cette approche se concentre sur l'optimisation de requêtes en utilisant les cas générés précédemment dans l'évaluation de requêtes similaires. Un cas de requête et composé par : (i) la requête (le problème), (ii) le plan d'exécution (la solution) et (iii) les mesures de ressources utilisés par l'exécution du plan (l'évaluation de la solution). Cette thèse aborde également la façon que le processus CBR interagit avec le processus de génération de plan d'exécution de la requête qui doit permettre d'explorer l'espace des solutions. Ce processus utilise les heuristiques classiques et prennent des décisions de façon aléatoire lorsque les métadonnées viennent à manquer (e.g. pour l'ordre des jointures, la sélection des algorithmes, voire même le choix des protocoles d'acheminement de messages). Ce processus exploite également le CBR pour générer des plans pour des sous-requêtes, accélérant ainsi l'apprentissage de nouveaux cas. Les propositions de cette thèse ont été validées à l'aide du prototype CoBRA développé dans le contexte du projet UBIQUEST
Vademecum KMO-financiering by Serge Peffer( Book )

1 edition published in 2010 in Dutch and held by 2 WorldCat member libraries worldwide

Coordination fiable de services de données à base de politiques actives by Javier Alfonso Espinosa Oviedo( )

1 edition published in 2013 in English and held by 2 WorldCat member libraries worldwide

We propose an approach for adding non-functional properties (exception handling, atomicity, security, persistence) to services' coordinations. The approach is based on an Active Policy Model (AP Model) for representing services' coordinations with non-functional properties as a collection of types. In our model, a services' coordination is represented as a workflow composed of an ordered set of activities, each activity in charge of implementing a call to a service' operation. We use the type Activity for representing a workflow and its components (i.e., the workflow' activities and the order among them). A non-functional property is represented as one or several Active Policy types, each policy composed of a set of event-condition-action rules in charge of implementing an aspect of the property. Instances of active policy and activity types are considered in the model as entities that can be executed. We use the Execution Unit type for representing them as entities that go through a series of states at runtime. When an active policy is associated to one or several execution units, its rules verify whether each unit respects the implemented non-functional property by evaluating their conditions over their execution unit state, and when the property is not verified, the rules execute their actions for enforcing the property at runtime. We also proposed a proof of concept Active Policy Execution Engine for executing an active policy oriented workflow modelled using our AP Model. The engine implements an execution model that determines how AP, Rule and Activity instances interact among each other for adding non-functional properties (NFPs) to a workflow at execution time. We validated the AP Model and the Active Policy Execution Engine by defining active policy types for addressing exception handling, atomicity, state management, persistency and authentication properties. These active policy types were used for implementing reliable service oriented applications, and mashups for integrating data from services
Proceedings [of the] 2001 International database engineering & applications symposium, 16 - 18 July 2001, Grenoble, France by International database engineering & applications symposium( Book )

1 edition published in 2001 in English and held by 2 WorldCat member libraries worldwide

ADEMS : a knowledge-based service for intelligent mediator configuration by Gennaro Bruno( Book )

2 editions published in 2006 in English and held by 2 WorldCat member libraries worldwide

Since their first definition, mediation systems have been an efficient solution to give access to a set of distributed and heterogeneous dat sources. During the last twenty years, new kinds of structured and semi-structured data sources, users and applications requirements have come up. Therefore, mediation systems architectures have been adapted to cope to new requirements. The role of the mediator, the main component of a mediation system, has evolved from a centralized query processing manager to a software component adapte to highly distributed environments. ln spite of this evolution, mediation systems still propose rigid architectures, and, in general, they provide ad-hoc solutions for a given target application domain. This makes it difficult to adapt existing approaches to different applicatio contexts. ln order to cope with these limitations, we propose ADEMS, a knowledge-based service for configuring intelligent mediators and thereby adapting them to given users and applications needs. ADEMS applies description logics to represent metadata as knowledgl within a set of ontologies, and exploits reasoning tasks to configure mediators in an intelligent manner. Configured mediators allows to build mediation systems being (i) weil suited to different application domains and/or application requirements, and (ii) extensible by authorizing existing resources reutilization (sources as weil as other mediators). Once configured, a mediator also exploits ontologies tha represent its data/metadata and queries. Query processing implemented bya mediator is based reasoning tasks, particularly, verification and rewriting phases
Entrepôts de données : synthèse et analyse [Data warehouses : synthesis and analysis] by Edgard Benitez-Guerrero( Book )

2 editions published in 1999 in French and held by 2 WorldCat member libraries worldwide

Detailed sketch of a parametric execution model for active database systems by Thierry Coupaye( Book )

2 editions published in 1997 in English and held by 2 WorldCat member libraries worldwide

 
moreShow More Titles
fewerShow Fewer Titles
Audience Level
0
Audience Level
1
  Kids General Special  
Audience level: 0.88 (from 0.69 for Un service ... to 0.97 for Vademecum ...)

2001 International Database Engineering & Applications Symposium : proceedings : 16-18 July, 2001, Grenoble, France Proceedings [of the] 2001 International database engineering & applications symposium, 16 - 18 July 2001, Grenoble, France
Covers
Proceedings [of the] 2001 International database engineering & applications symposium, 16 - 18 July 2001, Grenoble, France
Languages
French (21)

English (13)

Dutch (1)