WorldCat Identities

Laboratoire de traitement et transport de l'information (Villetaneuse, Seine-Saint-Denis)

Overview
Works: 24 works in 32 publications in 2 languages and 37 library holdings
Roles: Other
Publication Timeline
.
Most widely held works by Seine-Saint-Denis) Laboratoire de traitement et transport de l'information (Villetaneuse
Vers une médiation de composition dynamique de Services Web dans des environnements ubiquitaires. by Tuo Zhang( Book )

3 editions published in 2014 in French and held by 4 WorldCat member libraries worldwide

De nos jours, l'ouverture à la concurrence stimule les fournisseurs de services à être de plus en plus compétitifs et à attirer de plus en plus d'abonnés afin de faire face aux fortes pressions du marché. L'approche user-centric, qui consiste à fournir le plus rapidement possible des services adaptés aux besoins de l'usager, attire de plus en plus d'attention suite à l'émergence de l'environnement ubiquitaire. L'interopérabilité, aussi bien celle entre utilisateur et service que celle entre les services, est favorisée par l'adoption de SOA (architecture orientée service) comme modèle de développement, ainsi que les services Web qui combinent les avantages de ce modèle avec les langages et technologies développés pour Internet.Notamment, la composition dynamique de service Web est considérée comme un atout majeur, qui permet de répondre à des requêtes complexes en combinant les fonctionnalités de plusieurs services au sein d'une session personnalisée. Les services sont divers et variés et des services similaires pourraient être fournis depuis des plateformes hétérogènes. Dans un environnement ubiquitaire, les utilisateurs sont mobiles, cette mobilité se manifeste aussi bien à travers les réseaux empruntés que les terminaux utilisés. Ceci entraine une possible mobilité de services (aussi bien en termes de serveur effectif qu'en termes de services équivalents). C'est dans ce contexte dynamique et ubiquitaire, qui est celui choisi par le projet ANR/UBIS (dont cette thèse est partiellement issue), que nous avons mené nos recherches sur le thème particulier de la médiation de composition dynamique de services web. Plus précisément, nous proposons une approche de médiation qui consiste à recenser puis organiser de divers services concrets (aussi bien SOAP que RESTFul) pour constituer une panoplie des services abstraits d'une part, puis, à partir desquels, à offrir aux usagers les possibilités de réaliser des services personnalisés selon leur besoins (logique métier) par composition dynamiquement de ces services abstraits et de leur association avec le service concret le plus approprié. Nous avons considéré les trois types de composition de services (SOAP/SOAP, SOAP/RESTful, RESTful/RESTful) dans notre médiation. Selon le souhait de l'usager, cette composition (Mashup du coté de médiateur) peut lui être retournée et que l'usager peut invoquer de manière autonome, ou bien le médiateur peut assurer la réalisation du service composé et fournir seulement le résultat final à l'usager. Dans ce dernier cas, les différentes mobilités peuvent être prises en compte par le médiateur, qui s'appuie sur les mécanismes de la communauté virtuelle préconisés par le projet UBIS pour activer les services concrets les plus appropriés correspondant à un service
Optimisation des échanges dans le routage géocast pour les réseaux de Véhicules Ad Hoc VANETs. by Salim Allal( Book )

2 editions published in 2014 in French and held by 3 WorldCat member libraries worldwide

Vehicular ad hoc networks (VANETs) are a part of intelligent transportation systems (ITS). These letter attempt to answer the question of how to equip vehicles with wireless communication means to avoid accidents, better manage congestion and have positive impact on economics, energy and environment. Indeed, with wireless communication mechanisms such as IEEE 802.11p, a vehicle may exchange information with its near neighbors at one hop or at two furthur hops trhough relaying messages technique across intermediate vehicles. Some of these messages may cover vehicles wich are in a defined geographical area and spread throughout the network will consume bandwidth and penalize other vehicles. This is the case for information on the road trafic, for example. In the latter case, routing protocols said Geocast are used for the dissemination of these messages. The protocols are used to route a message from a unique source to multiple destination vehicles locked in the same geographic area. In this thesis, we considered the case where we have several geographic areas of interest and have proposed a new Geocast routing mechanism, called GeoSUZ, for conveying a message optimally between a source and multiple destination areas. An optimized broadcasting mechanism within an area is also combined with GeoSUZ algorithm to ensure end-to-end routing with minimal overhead
Méthodes pour la recommandation d'offres d'emploi dans les réseaux sociaux by Mamadou Diaby( Book )

2 editions published in 2015 in French and English and held by 3 WorldCat member libraries worldwide

We are entering a new era of data mining in which the main challenge is the storing andprocessing of massive data : this is leading to a new promising research and industry field called Big data. Data are currently a new raw material coveted by businesses of all sizes and all sectors. They allow organizations to analyze, understand, model and explain phenomen a such as the behavior of their users or customers. Some companies like Google, Facebook,LinkedIn and Twitter are using user data to determine their preferences in order to make targeted advertisements to increase their revenues.This thesis has been carried out in collaboration between the laboratory L2TI andWork4, a French-American startup that offers Facebook recruitment solutions. Its main objective was the development of systems recommending relevant jobs to social network users ; the developed systems have been used to advertise job positions on social networks. After studying the literature about recommender systems, information retrieval, data mining and machine learning, we modeled social users using data they posted on their profiles, those of their social relationships together with the bag-of-words and ontology-based models. We measure the interests of users for jobs using both heuristics and models based on machine learning. The development of efficient job recommender systems involved to tackle the problem of categorization and summarization of user profiles and job descriptions. After developing job recommender systems on social networks, we developed a set of systems called Work4 Oracle that predict the audience (number of clicks) of job advertisements posted on Facebook, LinkedIn or Twitter. The analysis of the results of Work4 Oracle allows us to find and quantify factors impacting the popularity of job ads posted on social networks, these results have been compared to those of the literature of Human Resource Management. All our proposed systems deal with privacy preservation by only using the data that social network users explicitly allowed to access to ; they also deal with noisy and missing data of social network users and have been validated on real-world data provided by Work4
Detection and dynamic of local communities in large social networks by Christel Blaise Ngonmang Kaledje( Book )

2 editions published in 2014 in English and held by 3 WorldCat member libraries worldwide

Complex networks arises in many contexts and applications : biology, transports, online social networks (ONS). Many recent applications deal with large amount of personal data. The links between peoples may reflect freindship, messaging, or some common interests. Entities in complex network, and espacially persons, tend to form communities. Here, a community can be defined as a set of entities interacting more between each other than with the rest of the network. The topic of community detection in large networks as been extensively studied during the last decades, following the seminal work by newman, who popularized the modularity criteria. However, most community detection algorithms assume that the network is entirely known and that is does not evolve with time. This is usually not true in real world applications. In this thesis, we start by proposing novel methods for local community identification (considering only the vicinity of a given node, without accessing the whole graph). Our algorithms experimentally outperform the state-of-art methods. We show how to use the local communities to enhance the prediction of a user's behaviour. Secondly, we propose some approaches to predict the evolution of the detected communities based on machine learning methods. Finally we propose a framework for storing and processing distributed social networks in a Big Data environment. The proposed methods are validated using (among others) real world data, provided by a industrial partner operating a major social network platform in France (40 millions of users)
Amélioration et évaluation de la qualité des images by Daikha Cherifi( Book )

2 editions published in 2014 in French and held by 3 WorldCat member libraries worldwide

Dans le cadre de cette thèse nous nous sommes intéressés à l'amélioration de la qualité visuelle des images, en rehaussant le contraste des images. Nous avons proposé, tout d'abord, une méthode de rehaussement simple et efficace s'inspirant du système visuel humain. Cette méthode est efficace,quand elle est appliquée aux images naturelles en couleur, ou monochromes. La méthode proposée est ensuite améliorée pour pouvoir rehausser d'autre type d'image comme les images médicale, telles que les images de rétine et l'endoscopie. Par la suite, nous nous sommes aussi intéressés aux rehaussements des images médicales et en particulier aux images de mammographie et nous avons donc proposé une méthode de rehaussement de contraste qui leur est spécifiquement dédiée. Au final,nous nous sommes intéressés à l'évaluation des méthodes de rehaussement proposées et aux différentes approches existantes dans la littérature. La méthode d'évaluation proposée s'appuie sur l'analyse radiale et angulaire du spectre d'énergie de Fourier. La validation de notre méthode de rehaussement de contraste a été faite en utilisant des échantillons d'images de 2 bases et en utilisant un test subjectif pour la comparer à d'autres méthodes de rehaussement. La note subjective finale de MOS, obtenue par la moyenne des notes des observateurs, montre la fiabilité de notre méthode de rehaussement de contraste et son intérêt par comparaison aux autres méthodes classiques
Robust time and frequency synchronisation in 802.11a communication wireless system by Cong Luong Nguyen( Book )

2 editions published in 2014 in English and held by 2 WorldCat member libraries worldwide

Le problème de la synchronisation en temps et en fréquence dans un système de transmission OFDM (Orthogonal Frequency Division Multiplexing) sans fil de type IEEE 802.11a est étudié. Afin d'améliorer la synchronisation de trame entre les stations mobiles, bien que des solutions aient déjà été proposées pour compenser les décalages en temps et en fréquence, nous avons développé une nouvelle approche conforme à la norme IEEE 802.11a. Cette approche exploite non seulement les informations habituellement spécifiées par la norme à savoir les séquences d'apprentissage mais également d'autres sources d'informations disponibles au niveau de la couche physique et par ailleurs connues par l'émetteur et le récepteur qui les exploitera. Tenant compte des informations fournies par les protocoles réseaux, nous avons montré que les différents sous-champs du champ SIGINAL de la trame physique, identifié comme séquence de référence, sont connus ou prédictibles à partir des deux trames de contrôle RTS (Request to Send) et CtS (Clear to Send) lorsque le mécanisme de réservation de support CSMA/CA (Transporteur Sense Multiple Access avec évitement de collision) est activé conjointement à des algorithmes d'adaptation de débit binaire sur le canal. De plus, la trame RTS reçue permet au récepteur d'estimer le canal avant d'entamer l'étape de synchronisation. Tenant compte de la connaissance sur le champ SIGNAL et de l'information sur le canal de transmission, nous avons développé plusieurs algorithmes conjoints de synchronisation temporelle et fréquentielle et d'estimation de canal compatible avec la norme 802.11a. Les résultats de simulation montrent une amélioration conséquente des performances en termes de probabilité d'échec de synchronisation en comparaison avec les algorithmes existants
Optimisation du son 3D immersif, qualité et transmission by Abderrahmane Smimite( Book )

2 editions published in 2014 in English and held by 2 WorldCat member libraries worldwide

In this work, three complementary topics regarding the use of multichannel spatial audio in professional applications have b e en studied. SIRIUS, is an audio transport mechanism designed to convey multiple professional-grade audio channels over a regular LAN while maintaining their synchronization. The system reliability is guaranteed by using a FEC mechanism and a selective redundancy, without introducing any important network overload. The system also offers a low latency that meet the professional applications requirements and can operate on the existing infrastructures and coexist with other IT traffic. The system relies on standard protocols and offers a high level of interoperability with equivalent technologies. The overall performances satisfy Pro Audio requirements. The second contribution is AQUA, a comprehensive framework for multichannel audio quality assessment that provides efficient tools for both subjective and objective quality evaluation. The subjective part consists of a new design of reliable listening tests for multichannel sound that analyze both perceptual and spatial information. Audio localization accuracy is reliably evaluated using our gesture-based protocol build around the Kinect. Additionally, this protocol relies on EEG signals analysis for psychological biases monitoring and efficient subjects screening. The objective method uses a binaural model to down-mix the multichannel audio signal into a 2-channels binaural mix that maintains the spatial cues and provides a simple and scalable analysis. The binaural stream is processed by a perceptual and spatial models that calculate relevant cues. Their combination is equivalent to the internal representation and allows the cognitive model to estimate an objective quality grade. In parallel, the psychological model simulate the human behavior by adjusting the output grades according to the previous ones (i.e., the experience effect). The overall performance shows that AQUA model can accurately predict the perceptual and spatial quality of a multichannel audio in a very realistic manner. The third focus of the study is to optimize the listening experience in surround sound systems (OPTIMUS). Considering the sweet spot issue in these systems and the complexity of its widening, we introduce a tracking technique that virtually moves the sweet spot location to the actual position of listener(s). Our approach is non-intrusive and uses thermal imaging for listeners identification and tracking. The original channels are considered as virtual sources and remixed using the VBAP technique. Accordingly, the audio system virtually follows the listener actual position. For home-cinema application, the kinect can be used for the tracking part and the audio adjustment can be done using HRTFs and cross-talk cancellation filters. The system shows an improvement of the localization accuracy and the quality of the listening experience
Approches par apprentissage pour l'évaluation de la qualité d'images médicales dans le cadre du traitement du cancer du foie by Zohaib Amjad Khan( )

1 edition published in 2021 in French and held by 1 WorldCat member library worldwide

Liver cancer is the fourth deadliest cancer in the world with a high rate of recurrence. Its treatment often involves ablation or surgical resection of the affected tissue. To improve the outcomes of this procedure, new methods incorporate image-guided surgical interventions, which require input from multiple imaging modalities. In the case of liver cancer treatment, these modalities are the Ultrasound, the Computed Tomography (CT) imaging, the Magnetic Resonance Imaging (MRI), monoscopic (2D) and stereoscopic (3D) laparoscopic videos. Quality assessment of these medical images and videos is extremely critical, throughout the diagnosis and treatment phases, not only for an improved diagnosis but also for an error-free performance of the surgery. However, multiple modalities with different characteristics like CT, MRI, ultrasound and laparoscopic videos make the quality assessment a challenging task. Moreover, in image-guided surgery, there are different image processing tasks involved like registration, enhancement and segmentation whose performance need to be evaluated. This thesis is mainly focused on finding solutions to both of these two critical problems, namely medical image quality assessment and performance evaluation of imaging tasks used in image-guided interventions. In this thesis, we have proposed image quality assessment methods for three of the most important imaging modalities of image-guided surgery namely 2D laparoscopic videos, 3D laparoscopic images and the CT. More specifically, for monoscopic and stereoscopic laparoscopic images/videos, we have focused on quality assessment of the non-processed images/videos affected by distortions, whereas for CT images we have proposed a new method for quality evaluation of their enhancement. First of all, we have developed a no-reference objective image quality assessment method for stereoscopic images based on joint statistical features. However, due to the lack of labeled 3D laparoscopic data, we could not validate the results of this method for medical images, and so, a standard natural stereo image dataset has been used for evaluation purpose. We have then taken on the issue of the lack of labeled data and have constructed a new 2D laparoscopic video quality database. Evaluations from both medical expert and non-expert viii observers have been included in this database. Thereafter we have developed an effective deep learning method for simultaneous distortion classification and ranking for 2D laparoscopic images. We have then further extended this method for no-reference objective quality assessment of 2D laparoscopic videos and have obtained the best results as compared to other state-of-the-art methods. For the evaluation of contrast enhancement in CT, we have first identified the most important criteria of enhancement and the appropriate metrics to quantify these criteria. Thereafter, we have proposed a novel goal-oriented machine learning-based strategy to combine these different contrast enhancement evaluation (CEE) metrics. For training and validation of our method, we have used the performance evaluation scores of the subsequent task, namely segmentation, as the labels. The results of our proposed method show a substantial improvement compared to state-of-the-art CEE metrics
Annulation d'interférences dans les systèmes MIMO et MIMO massifs (Massive MIMO) by Abdelhamid Ladaycia( )

1 edition published in 2019 in English and held by 1 WorldCat member library worldwide

Les systèmes de communications MIMO utilisent des réseaux de capteurs qui peuvent s'étendre à de grandes dimensions (MIMO massifs) et qui sont pressentis comme solution potentielle pour les futurs standards de communications à très hauts débits. Un des problème majeur de ces systèmes est le fort niveau d'interférences dû au grand nombre d'émetteurs simultanés. Dans un tel contexte, les solutions 'classiques' de conception de pilotes 'orthogonaux' sont extrêmement coûteuses en débit utile permettant ainsi aux solutions d'identification de canal dites 'aveugles'ou 'semi-aveugles' de revenir au-devant de la scène comme solutions intéressantes d'identification ou de déconvolution de ces canaux MIMO. Dans cette thèse, nous avons commencé par une analyse comparative des performances, en nous basant sur les CRB, afin de mesurer la réduction potentielle de la taille des séquences pilotes et ce en employant les méthodes dites semi-aveugles. Les résultats d'analyse montrent que nous pouvons réduire jusqu'à 95% des pilotes sans affecter les performances d'estimation du canal. Nous avons par la suite proposé de nouvelles méthodes d'estimation semi-aveugle du canal, permettant d'approcher la CRB. Nous avons proposé un estimateur semi-aveugle, LS-DF qui permet un bon compromis performance / complexité numérique. Un autre estimateur semi-aveugle de type sous-espace a aussi été proposé ainsi qu'un algorithme basé sur l'approche EM pour lequel trois versions à coût réduit ont été étudiées. Dans le cas d'un canal spéculaire, nous avons proposé un algorithme d'estimation paramétrique se basant sur l'estimation des temps d'arrivés combinée avec la technique DF
Réseaux de capteurs : application à la poursuite des cibles mobiles by Mustapha Bekhti( )

1 edition published in 2018 in English and held by 1 WorldCat member library worldwide

L'objet de cette thèse est l'étude et la mise en place de solutions pour des problèmes de poursuite de cibles mobiles en exploitant les réseaux sans fil. L'objectilf principal est le développement de solutions pour l'exploitation des petits drones dans des applications civiles. La sécurité de vol est un élément primordial. A l'instar des avions pilotés et en outre des capacités d'évitement de collision, l'identification, la localisation et le tracking des petits drones, sont des conditions sine qua non pour l'intégration de cette technologie dans l'espace aérien. Il faut donc pouvoir planifier des trajectoires pour les drones qui assurent d'une part une meilleur localisation, un meilleur tracking, et qui garantissent l'évitement d'obstacles et les collisions. Les pistes étudiées dans cette thèse sont des sujets d'actualités. Elles couvrent deux catégories principales de contributions : premièrement, la planification des trajectoires et le suivi des drones avec des missions de livraison de colis et de collecte de données, et deuxièmement, la détection d'intrusion dans une zone sensible par l'utilisation d'une flotte de drones. Les résultats montrent que l'intégration du segment drone aux réseaux terrestres sans fil présente une valeur ajoutée et pertinente et ouvre de nouvelles perspectives à l'utilisation de cette technologie dans le domaine civil
2D/3D Endoscopic image enhancement and analysis for video guided surgery by Bilel Sdiri( )

1 edition published in 2018 in English and held by 1 WorldCat member library worldwide

Grâce à l'évolution des procédés de diagnostiques médicaux et les développements technologiques, la chirurgie mini-invasive a fait des progrès remarquables au cours des dernières décennies surtout avec l'innovation de nouveaux outils médicaux tels que les systèmes chirurgicaux robotisés et les caméras endoscopiques sans fil. Cependant, ces techniques souffrent de quelques limitations liées essentiellement l'environnement endoscopique telles que la non uniformité de l'éclairage, les réflexions spéculaires des tissus humides, le faible contraste/netteté et le flou dû aux mouvements du chirurgien et du patient (i.e. la respiration). La correction de ces dégradations repose sur des critères de qualité d'image subjective et objective dans le contexte médical. Il est primordial de développer des solutions d'amélioration de la qualité perceptuelle des images acquises par endoscopie 3D. Ces solutions peuvent servir plus particulièrement dans l'étape d'extraction de points d'intérêts pour la reconstruction 3D des organes, qui sert à la planification de certaines opérations chirurgicales. C'est dans cette optique que cette thèse aborde le problème de la qualité des images endoscopiques en proposant de nouvelles méthodes d'analyse et de rehaussement de contraste des images endoscopiques 2D et 3D.Pour la détection et la classification automatique des anomalies tissulaires pour le diagnostic des maladies du tractus gastro-intestinal, nous avons proposé une méthode de rehaussement de contraste local et global des images endoscopiques 2D classiques et pour l'endoscopie capsulaire sans fil.La méthode proposée améliore la visibilité des structures locales fines et des détails de tissus. Ce prétraitement a permis de faciliter le processus de détection des points caractéristiques et d'améliorer le taux de classification automatique des tissus néoplasiques et tumeurs bénignes. Les méthodes développées exploitent également la propriété d'attention visuelle et de perception de relief en stéréovision. Dans ce contexte, nous avons proposé une technique adaptative d'amélioration de la qualité des images stéréo endoscopiques combinant l'information de profondeur et les contours des tissues. Pour rendre la méthode plus efficace et adaptée aux images 3Dl e rehaussement de contraste est ajusté en fonction des caractéristiques locales de l'image et du niveau de profondeur dans la scène tout en contrôlant le traitement inter-vues par un modèle de perception binoculaire.Un test subjectif a été mené pour évaluer la performance de l'algorithme proposé en termes de qualité visuelle des images générées par des observateurs experts et non experts dont les scores ont démontré l'efficacité de notre technique 3D d'amélioration du contraste. Dans cette même optique,nous avons développé une autre technique de rehaussement du contraste des images endoscopiques stéréo basée sur la décomposition en ondelettes.Ce qui offre la possibilité d'effectuer un traitement multi-échelle et d'opérer une traitement sélectif. Le schéma proposé repose sur un traitement stéréo qui exploite à la fois l'informations de profondeur et les redondances intervues,ainsi que certaines propriétés du système visuel humain, notamment la sensibilité au contraste et à la rivalité/combinaison binoculaire. La qualité visuelle des images traitées et les mesures de qualité objective démontrent l'efficacité de notre méthode qui ajuste l'éclairage des images dans les régions sombres et saturées et accentue la visibilité des détails liés aux vaisseaux sanguins et les textures de tissues
Tone Mapping Operators for High Dynamic Range Images by Ba chien Thai( )

1 edition published in 2018 in English and held by 1 WorldCat member library worldwide

He conversion of High Dynamic Range (HDR) image into Low Dynamic Range (LDR) image is investigated so that the visual rendering of the latter is of good quality. The first contribution focused on the contrast enhancement of the tone mapped image using a piecewise linear function as a non-uniform histogram equalization adjustment to mode! the "s-shaped" curve of the human visual adaptation. The second and third contributions are concerned with the details preservation of the HDR image on the tone mapped image. Separable and non-separable multiresolution approaches based on essential non-oscillatory strategies, taking into account the HDR image singularities in the mathematical mode! derivation, are proposed. The fourth contribution not only preserves details but also enhances the contrast of the HDR tone mapped image. A separable "near optimal" lifting scheme using an adaptive powerful prediction step is proposed. The latter relies on a linear weighted combination depending on the neighbouring coefficients to extract the relevant fin est details on the HDR image at each resolution level. A piecewise linear mapping is then applied on the coarse reconstruction. Simulation results provide good performance, both in terms of visual quality and Tone Mapped Quality Index (TMQI) metric, compared to existing competitive tone mapping approaches. The impact of the TMQI parameters on the visual quality of the tone mapped images is discussed. The proposed parameters show a strong correlation between the modified metric and
Contribution à une instanciation efficace et robuste des réseaux virtuels sous diverses contraintes by Shuopeng Li( )

1 edition published in 2017 in English and held by 1 WorldCat member library worldwide

La virtualisation de réseau permet de créer des réseaux logiques, dits virtuels sur un réseau physique partagé dit substrat. Pour ce faire, le problème d'allocation des ressources aux réseaux virtuels doit être résolu efficacement. Appelé VNE (Virtual Network Embedding), ce problème consiste à faire correspondre à chaque nœud virtuel un nœud substrat d'un côté, et de l'autre, à tout lien virtuel un ou plusieurs chemins substrat, de manière à optimiser un objectif tout en satisfaisant un ensemble de contraintes. Les ressources de calcul des nœuds et les ressources de bande passante des liens sont souvent optimisées dans un seul réseau substrat. Dans le contexte multi-domaine où la connaissance de l'information de routage est incomplète, l'optimisation des ressources de nœuds et de liens est difficile et souvent impossible à atteindre. Par ailleurs, pour assurer la continuité de service même après une panne, le VNE doit être réalisé de manière à faire face aux pannes. Dans cette thèse, nous étudions le problème d'allocation de ressources (VNE) sous diverses exigences. Pour offrir la virtualisation dans le contexte de réseau substrat multi-domaines, nous proposons une méthode de mappage conjoint des liens inter-domaines et intra-domaines. Avec une information réduite et limitées annoncées par les domaines, notre méthode est capable de mapper simultanément les liens intra-domaines et les liens inter-domaines afin d'optimiser les ressources. De plus, pour améliorer la robustesse des réseaux virtuels, nous proposons un algorithme d'évitement des pannes qui minimise la probabilité de panne des réseaux virtuels. Des solutions exactes et heuristiques sont proposées et détaillées pour des liens à bande passante infinie ou limitée. En outre, nous combinons l'algorithme d'évitement des pannes avec la protection pour proposer un VNE robuste et résistant aux pannes. Avec cette nouvelle approche, les liens protégeables puis les liens les moins vulnérables sont prioritairement sélectionnés pour le mappage des liens. Pour déterminer les liens protégeables, nous proposons une heuristique qui utilise l'algorithme du maxflow afin de vérifier etdedéterminerlesliensprotégeablesàl'étapedumappagedesliensprimaires. Encasd'insuffisance de ressources pour protéger tous les liens primaires, notre approche sélectionne les liens réduisant la probabilité de panne
Algorithmes pour le déchargement de tâches sur serveurs de périphérie by Houssemeddine Mazouzi( )

1 edition published in 2019 in English and held by 1 WorldCat member library worldwide

Le déchargement de calculs est l'une des solutions les plus prometteuses pour surmonter le manque d e ressources au niveau des terminaux mobiles. Elle permet l'exécution d'une partie ou de la totalité d'une application mobile dans le cloud. L'objectif est d'améliorer les temps d'exécution et de réduire la consommation énergétique. Malheureusement, le cloud est généralement éloignés des équipements terminaux. Ce qui rend cette approche souffrir de délais importants et fluctuants. Cela est particulièrement problématique pour certaines applications pour lesquelles un temps de réponse réduit est nécessaire. Pour réduire ce délai d'accès, l'une des approches émergentes est de pousser le Cloud vers la bordure du réseau. Cette proximité permet aux applications mobiles de décharger leurs tâches et données vers un Cloud “local” ou “Edge Cloud”.Dans cette thèse, nous nous concentrons sur le déchargement de calculs dans une architecture de type mobiles (Mobile Edge Computing - MEC), composée de plusieurs serveurs de périphérie. Notre objectif est d'explorer de nouvelles stratégies de déchargement efficaces afin d'améliorer les performances des applications tant du point de vue délais de calcul que consommation énergétique, tout en garantissant les contraintes de temps d'exécution des applications. Notre première contribution est une nouvelle stratégie de déchargement sur plusieurs serveurs de périphérie. Nous proposons par la suite une extension de cette stratégie en incluant également le Cloud. Nous évaluons ces stratégies tant du point de vue théorique que pratique avec l'implémentation d'un middleware de déchargement. Finalement, nous proposons une nouvelle approche élastique dans le cas d'applications multitâches caractérisées par un graphe de dépendances entre les tâches
Video stabilization : A synopsis of current challenges, methods and performance evaluation by Wilko Guilluy( )

1 edition published in 2018 in English and held by 1 WorldCat member library worldwide

Le développement continu de capteurs vidéo et leurs miniaturisations ont étendus leurs usages dans diverses applications allant de la vidéo-surveillance aux systèmes de chirurgie assisté par ordinateur et l'analyse de mouvements physiques et de phénomènes astrophysiques. De nos jours, il est devenu possible de capturer des séquences vidéos dans n'importe quel environnement, sans de lourds et complexes ajustements comme c'était le cas avec les anciens capteurs vidéos. Cependant,l'aisance à accéder à l'information visuelle à travers des capteurs de plus en plus faciles à manipuler a conduit à une situation où le nombre de vidéos distribuées sur internet est en progression constante et il devient difficile de corriger efficacement toutes les déformations et artefacts qui découlent de l'acquisition du signal. Par exemple, plus de 600000 de vidéos sont chargées sur Youtube chaque jour. Une des dégradations les plus gênantes pour la vision humaine est liée à l'instabilité de l'image due aux mouvements de la caméra lors de l'acquisition du signal. Cette source de dégradations se manifeste sous la forme d'oscillations incontrôlées de la trame entière et peut être accompagnée par un effet de flou.Cela affecte la qualité de l'image et produit un inconfort visuel. Il existe des solutions mécaniques telles que les tripodes, chariots, stabilisateurs électroniques ou des technologies s'appuyant sur les gyroscopes qui empêchent les effets de flou ou les oscillations. Cependant, leur utilisation reste limitée à des applications professionnelles et en conséquence, la plupart des vidéos amateurs contiennent des mouvements de caméra non intentionnels. Dans ce contexte, l'utilisation de méthodes numériques, souvent nommées stabilisation de vidéos numérique, semble être une solution prometteuse. La stabilisation numérique cherche à crée une nouvelle vidéo montrant la même scène mais en supprimant toutes les composantes non intentionnels du mouvement de caméra. La stabilisation vidéo est utile pour améliorer la qualité et le confort visuel du spectateur, mais peut aussi servir d'étape de prétraitement pour de nombreux procédés d'analyse vidéo utilisant le mouvement, tel que la soustraction de l'arrière-plan ou le suivi d'objet
Controlled estimation algorithms of disparity map using a compensation compression scheme for stereoscopic image coding by Imen Kadri( )

1 edition published in 2020 in English and held by 1 WorldCat member library worldwide

Nowadays, 3D technology is of ever growing demand because stereoscopic imagingcreate an immersion sensation. However, the price of this realistic representation is thedoubling of information needed for storage or transmission purpose compared to 2Dimage because a stereoscopic pair results from the generation of two views of the samescene. This thesis focused on stereoscopic image coding and in particular improving thedisparity map estimation when using the Disparity Compensated Compression (DCC)scheme.Classically, when using Block Matching algorithm with the DCC, a disparity mapis estimated between the left image and the right one. A predicted image is thencomputed.The difference between the original right view and its prediction is called theresidual error. This latter, after encoding and decoding, is injected to reconstruct theright view by compensation (i.e. refinement) . Our first developed algorithm takes intoaccount this refinement to estimate the disparity map. This gives a proof of conceptshowing that selecting disparity according to the compensated image instead of thepredicted one is more efficient. But this done at the expense of an increased numericalcomplexity. To deal with this shortcoming, a simplified modelling of how the JPEGcoder, exploiting the quantization of the DCT components, used for the residual erroryields with the compensation is proposed. In the last part, to select the disparity mapminimizing a joint bitrate-distortion metric is proposed. It is based on the bitrateneeded for encoding the disparity map and the distortion of the predicted view.This isby combining two existing stereoscopic image coding algorithms
Classification basée sur la représentation parcimonieuse et application au diagnostic des lésions cutanées by Hai Long Ngo( )

1 edition published in 2021 in English and held by 1 WorldCat member library worldwide

La classification d'images est une discipline majeure en traitement d'images et en intelligence artificielle. La classification est d'une importance fondamentale pour qu'un système intelligent puisse exploiter et gérer efficacement l'information visuelle. L'objectif est de développer des algorithmes qui trouvent automatiquement la catégorie à laquelle appartient un échantillon d'image, à partir d'échantillons d'entraînement. Dans nos études, nous nous concentrons sur l'étude et le développement des algorithmes basés sur la représentation parcimonieuse pour la classification d'images, y compris, mais sans s'y limiter, les visages, les objets et les lésions cutanées. Cette étude met l'accent sur le développement des problèmes de classification basés sur la représentation parcimonieuse dans les domaines spécifiques tels que le domaine des ondelettes ou le domaine des ondelettes quaternioniques dans le but d'améliorer les performances de séparation des classes. En outre, notre objectif est de mettre en œuvre une nouvelle méthode pour le diagnostic du mélanome assisté par ordinateur, réalisé à partir d'images dermoscopiques. Le mélanome est le type de cancer de la peau le plus mortel. Heureusement, les lésions cutanées sont curables si elles sont diagnostiquées et traitées suffisamment tôt. Pour cette raison, le diagnostic automatique du mélanome assisté par ordinateur suscite aujourd'hui un grand intérêt de la part des chercheurs
Mécanismes d'adaptation basés sur des métriques objectives de la qualité vidéo pour la diffusion de vidéo selon DASH by Mustafa Othman( )

1 edition published in 2021 in English and held by 1 WorldCat member library worldwide

The DASH (Dynamic Adaptive Streaming over HTTP) standard is widely adopted for video streaming. The Adaptive BitRate (ABR) style adaptation mechanism, which is a key component of DASH, is not standardized, since it must take various elements into account, in particular the context of the communication and the system, but also the quality perceived by the users, to maximize the QoE (Quality of Experience). Many ABR algorithms have been proposed. Few of them attach importance to perceived, and objectively calculated, quality as an adaptation parameter. This thesis proposes a generic framework, called VQBA (Video Quality Metric Based Adaptation algorithm), allowing to integrate an objective metric of the video quality of one's choice as an adaptation parameter. The idea is to maximize the eÿcient use of the available bandwidth by deciding to switch to a higher speed not only because it is feasible, but also because it provides a significant visual improvement. We carried out numerous tests with video sequences of various kinds and by placing them in real network situations with traces from operational mobile networks. These tests, through three usual video quality metrics, namely SSIM (Structural Similarity Index Measurement), PSNR (Peak Signal to Noise Ratio) and VMAF (Video Multimethod Assessment Fusion), and in comparison with a selection of ABR algorithms, show that the path we explored, that is to say, giving importance to video quality as an adaptation parameter, is an e˙ective path for better QoE
Optimization of the Rate-Distortion Compromise for Stereoscopic Image Coding using Joint Entropy-Distortion Metric by Aysha-Khatoon Kadaikar( )

1 edition published in 2017 in English and held by 1 WorldCat member library worldwide

During the last decades, a wide range of applications using stereoscopic technology has emerged still offering an increased immersion to the users such as video games with autostereoscopic displays, 3D-TV or stereovisio-conferencing. The raise of these applications requires fast processing and efficient compression techniques. In particular, stereoscopic images require twice the amount of information needed to transmit or store them in comparison with 2D images as they are composed of two views of the same scene. The contributions of our work are in the field of stereoscopic image compression and more precisely, we get interested in the improvement of the disparity map estimation. Generally, disparities are selected by minimizing a distortion metric which is sometimes subjected to a smoothness constraint, assuming that a smooth disparity map needs a smaller bitrate to be encoded. But a smoother disparity map does not always reduce significantly the bitrate needed to encode it but can increase the distortion of the predicted view. Therefore, the first algorithm we have proposed minimizes a joint entropy-distortion metric to select the disparities. At each step of the algorithm, the bitrate of the final disparity map is estimated and included in the metric to minimize. Moreover, this algorithm relies on a tree where a fixed number of paths are extended at each depth of the tree, ensuring good rate-distortion performance. In the second part of the work, we have proposed a sub-optimal solution with a smaller computational complexity by considering an initial solution -the one minimizing the distortion of the predicted view- which is successively modified as long as an improvement is observed in terms of rate-distortion. Then, we have studied how to take advantages of large search areas in which the disparities are selected as one can easily supposed that enlarging the search area will increase the distortion performance as there will be more choices of disparities. In the other hand, the larger is the range of the selected disparities, the higher is supposed to be the cost of the disparity map in terms of bitrate. We have proposed two approaches allowing to take advantage of a large search area by selecting only sets of disparities belonging to it enabling to achieve a given bitrate while minimizing the distortion of the predicted image. The last part of the work concerns variable block sizes which undeniably allows to improve the bitrate-distortion performance as the block size suits to the image features. We have thus proposed a novel algorithm which jointly estimates and optimizes the disparity and the block length maps
Etude analytique de la qualité de service des systèmes intelligents de la surveillance vidéo basées sur les réseaux de capteurs sans fil by Ismail Bezzine( )

1 edition published in 2020 in French and held by 1 WorldCat member library worldwide

Intelligent Video surveillance systems are more and more demanding in terms ofquality, reliability and flexibility especially those based on Multimedia wirelesssensors networks. As much as new systems pay a lot of attention to high-levelfeatures such as abnormal event detection, the quality of the video as well asthe quality of the network were for a long time neglected. However, due tosome natural distortions, inappropriate coding techniques and/or bad networkquality, the video quality may be deteriorated making object/event detection verydifficult. A main challenging issue of intelligent video surveillance is to improveQuality-of-Experience of the system. In fact, three major factors are involved inthe global quality of a video surveillance system which are: the captured videoquality, the video coding and the quality-of-service of the network. To this end,it is primordial to assess the video quality in order to decide whether or notan enhancement is needed. On the other hand, the network architecture mustfulfil the video surveillance requirements and respects its specificities in order toguarantee a good quality of service.In this thesis, we focus our interest on video surveillance system's quality.Our objective is to study the quality aspect in new emergent intelligent videosurveillance systems. The principal contributions of this thesis are threefold.First, we propose a new stereoscopic image coding techniques based on sparseoptimization of non separable vector lifting scheme. In fact, this stereoscopiccoding technique can be extended to the context of multiview coding and may offerbest coding performance for 3D video surveillance systems. Then, we introduce anew quality-based intelligent video surveillance architecture based on video qualityassessment. A video surveillance oriented video quality database is proposed within this architecture. Finally, a scheduling model based on priority of trafficsfor multimedia sensors is proposed. The results of this thesis underline theimportance of our contributions in the field of intelligent video surveillance. Thiswork does not claim to have completely resolved the problems raised in thisthesis. It constitutes a modest first contribution by having explored and analysedthe most crucial problems. Nevertheless, it has the merit of having thoroughlyanalyzed the problems raised by the SV and of having proposed some solutionsthat remain to be improved in the context of future work. Finally, the provisionto the scientific community of a high-resolution video database, unique to ourknowledge, presenting different scenarios, is a considerable contribution
 
moreShow More Titles
fewerShow Fewer Titles
Audience Level
0
Audience Level
1
  General Special  
Audience level: 0.89 (from 0.89 for Optimisati ... to 0.91 for Vers une m ...)

WorldCat IdentitiesRelated Identities
Alternative Names
EA 3043

EA3043

Équipe d'accueil 3043

L2TI

Université Paris 13 (Villetaneuse, Seine-Saint-Denis). Laboratoire de traitement et transport de l'information

Languages
English (18)

French (10)