WorldCat Identities

Dabbous, Walid

Overview
Works: 40 works in 76 publications in 2 languages and 312 library holdings
Genres: Conference papers and proceedings 
Roles: Editor, Thesis advisor, Author, Other, Opponent, Scientific advisor, Interviewee, Bibliographic antecedent
Classifications: TK5105.55, 006.7
Publication Timeline
.
Most widely held works by Walid Dabbous
Protocols for high-speed networks V : TC6 WG6.1/6.4 Fifth International Workshop on Protocols for High-Speed Networks (PfHSN '96), 28-30 October 1996, Sophia Antipolis, France by Walid Dabbous( )

10 editions published between 1991 and 1997 in English and held by 172 WorldCat member libraries worldwide

This book presents a state-of-the-art view of transmission control for multimedia applications and new communication system architectures. It focuses on the problems of achieving efficient transmission of multimedia time-constrained application data using high-speed networks and internetworks. Key areas include: protocol development; quality of service issues; protocol analysis; high-performance architectures; implementation of high-speed protocols; experimental studies; application-oriented issues; application-controlled communication systems; protocols for distributed multimedia applications; protocol implementation tools
Systèmes multimédias communicants( Book )

4 editions published between 2000 and 2001 in French and held by 69 WorldCat member libraries worldwide

ETUDE DES PROTOCOLES DE CONTROLE DE TRANSMISSION A HAUT DEBIT POUR LES APPLICATIONS MULTIMEDIAS by Walid Dabbous( Book )

2 editions published in 1991 in French and held by 4 WorldCat member libraries worldwide

Les avancées technologiques dans les domaines de la transmission et de la commutation a conduit au développement de réseaux a haut débit tels que fddi, dqdb et le rnis large bande. L'augmentation des débits de transmission au-delà de 100 mbits par seconde permet de considérer de nouvelles applications réseau (dites applications multimédias) supportant une intégration de plusieurs types de flots ayant des caractéristiques différentes, comme les données textuelles, la voix numérisée et les images vidéo. Cependant, l'implantation de telles applications sur les réseaux a haut débit pose un problème au niveau du contrôle de la transmission des différents flots et de leur synchronisation. Cette thèse s'intéresse a la conception et a l'implantation de protocoles de transport a haut débit et en particulier ceux qui sont adaptes aux applications multimédias. Nous analysons les mécanismes utilises par les protocoles de transport afin de détecter les points de blocages qui empêchent l'amélioration des débits de se propager jusqu'aux applications, en prenant en compte les avancées technologiques et les besoins des applications. Ceci nous amené a la définition d'un nouveau service de transport type selon la nature du flot de données a transmettre. Nous présentons ensuite un protocole de transport optimise (appelé tp5) qui fournit aux applications le service type et les facilites pour la synchronisation des différents flots de données au niveau transport. Nous analysons ensuite le cout de deux modes de synchronisation possibles offerts par tp5 et nous montrons que le service de transport type permet d'améliorer la qualité de service fournie aux applications multimédias
A reliable multicast protocol for a white board application by Walid Dabbous( Book )

3 editions published in 1993 in English and held by 4 WorldCat member libraries worldwide

Internet par satellite, protocoles et performances( Visual )

2 editions published between 2000 and 2001 in French and held by 4 WorldCat member libraries worldwide

La gestion dynamique de la qualité de service dans l'Internet by Rares Serban( Book )

2 editions published in 2003 in English and held by 4 WorldCat member libraries worldwide

L'Internet sert de support de communication a un grand nombre d'applications dans le cadre des réseaux d'entreprise. Cependant, un certain nombre d'applications multimédia (par exemple la téléphonie sur IP) nécessitent le support d'un ensemble de mécanismes de qualité de service (QoS) dans le réseau. Chaque mécanisme de QoS est provisionne en fonction du contrat (SLA - Service Level Agreement) établit entre l'utilisateur/application et le FAI (Fournisseur d'Accès a Internet). Le rôle important de la gestion de la QoS est de conserver toutes les caractéristiques établies par le SLA pendant toute la durée du contrat. Cette gestion peut être statique ou dynamique. Dans le cas statique, la gestion de la QoS dans le réseau est effectuée, d'une manière expérimentale et non efficace, manuellement par l'administrateur de réseau sur une grande échelle de temps. La gestion dynamique de la QoS est effectuée en utilisant de façon adaptable et automatique des mécanismes de QoS pour une gestion flexible et efficace des ressources du réseau. Dans cette thèse, nous considérons les éléments suivants qui composent l'architecture pour la gestion dynamique des ressources: la signalisation, des algorithmes d'allocation de la bande passante et de contrôle de ressources, des algorithmes de mesure des ressources dans le réseau et des algorithmes de négociation entre plusieurs domaines administratifs. Nous proposons des critères de classification pour les protocoles de signalisation de QoS dans l'Internet et nous effectuons, en utilisant cette classification, une analyse des protocoles de QoS les plus utilises. Nous étudions l'impact entre les paramètres de SLA (bande passante, gigue, délai, perte de paquets) et les paramètres de différents mécanismes fournis par défaut par le système d'exploitation Linux. En utilisant Diffserv conjointement a une plateforme Linux (note par la suite Linux Diffserv), nous montrons dans certains cas que la gestion statique de la QoS n'est pas efficace. Nous proposons un mécanisme d'allocation dynamique de la bande passante dans les routeurs a l'intérieur du réseau (Linux Diffserv). Avec notre algorithme nous proposons plusieurs règles de partage des ressources
XTP implementation under Unix by Walid Dabbous( Book )

3 editions published in 1993 in English and held by 4 WorldCat member libraries worldwide

High performance implementation of communication subsystems by Walid Dabbous( Book )

3 editions published in 1993 in English and held by 4 WorldCat member libraries worldwide

Applicability of the session and the presentation layers for the support of high speed applications by Walid Dabbous( Book )

3 editions published in 1992 in English and held by 3 WorldCat member libraries worldwide

Revisiting Internet topology : application-centric approach by Mohammad Malli( Book )

2 editions published in 2006 in English and held by 2 WorldCat member libraries worldwide

Nous introduisons dans cette thèse la notion de proximité applicative. Cette proximité est fonction des paramètres du réseau (par exemple : délai, bande passante, taux de perte) qui affectent les performances de l'application. Nous justifions le besoin pour cette nouvelle notion par la légère corrélation des paramètres réseau que nous avons observée sur l'Internet. Dans la première partie de la thèse, nous considérons deux applications typiques qui sont le transfert des fichiers au-dessus du protocole TCP, et un service audio interactif. Pour chaque application, nous proposons d'abord une métrique qui modélise sa qualité en fonction des paramètres critiques du réseau. Puis nous évaluons l'amélioration de la qualité perçue par les pairs utilisateurs de ces applications lorsqu'ils choisissent leurs voisins en fonction de la proximité applicative que nous proposons au lieu de celle basée sur le délai. Notre majeure contribution est un modèle qui sert à déployer la proximité applicative d'une façon qui passe à l'échelle. Ceci passe par une estimation de la bande passante entre deux pairs, le délai étant fait par les autres. Le modèle consiste à estimer la bande passante entre les pairs en utilisant celles des chemins indirects qui les connectent via un ensemble de relais bien définis que nous appelons landmarks. Notre idée est qu'un chemin indirect partage le même goulot que le chemin direct avec une probabilité qui dépend de l'endroit où se trouve le landmark correspondant par rapport au chemin direct. Nous évaluons l'impact de l'endroit, du nombre, et de la distribution des landmarks sur l'exactitude des estimations de la bande passante. Notre étude montre que la proximité déterminée par notre modèle d'estimation de la bande passante fournit une meilleure qualité applicative que celle obtenue en utilisant la proximité de délai et ceci pour les applications de transfert des grands fichiers, le transfert des grands fichiers étant une application plus sensible à la bande passante qu'au délai. Les expérimentations qui ont servi à cette étude sont basée sur des mesures approfondies effectuées au-dessus du réseau expérimental mondial Planetlab
Securiting Internet coordinates systems by Mohamed Ali Kaafar( Book )

2 editions published in 2007 in English and held by 2 WorldCat member libraries worldwide

Idea is that if network distances between Internet nodes can be embedded in an appropriate space, unmeasured distances can be estimated using a simple distance computation in that space. Recently, these coordinates-based systems have been shown to be accurate, with very low distance prediction error. However, most, if not all, of current proposals for coordinate systems assume that the nodes partaking in the system cooperate fully and honestly with each other - that is that the information reported by probed nodes is correct - this could also make them quite vulnerable to malicious attacks. In particular, insider attacks executed by potentially colluding) legitimate users or nodes infiltrating the system could prove very effective. As the use of overlays and applications relying on coordinates increases, one could imagine the release of worms and other malware, exploiting such cooperation, which could seriously disrupt the operations of these systems and therefore the virtual networks and applications relying on them for distance measurements. In this thesis, we first identify such attacks, and through a simulation study, we observed their impact on two recently proposed positioning systems, namely Vivaldi and NPS. We experimented with attack strategies, carried out by malicious nodes that provide biased coordinates information and delay measurement probes, and that aim to (i) introduce disorder in the system, (ii) fool honest nodes to move far away from their correct positions and (iii) isolate particular target nodes in the system through collusion. Our findings confirm the susceptibility of the coordinate systems to such attacks. Our major contribution is therefore a model for malicious behavior detection during coordinates embedding. We first show that the dynamics of a node, in a coordinate system without abnormal or malicious behavior, can be modeled by a Linear State Space model and tracked by a Kalman filter. Then we show, that the obtained model can be generalized in the sense that the parameters of a filter calibrated at a node can be used effectively to model and predict the dynamic behavior at another node, as long as the two nodes are not too far apart in the network. This leads to the proposal of a Surveyor infrastructure: Surveyor nodes are trusted, honest nodes that use each other exclusively to position themselves in the coordinate space, and are therefore immune to malicious behavior in the system. During their own coordinate embedding, other nodes can then use the filter parameters of a nearby Surveyor as a representation of normal, clean system behavior to detect and filter out abnormal or malicious activity. A combination of simulations and PlanetLab experiments are used to demonstrate the validity, generality, and effectiveness of the proposed approach for both Vivaldi and NPS. Finally, we address the issue of asserting the accuracy of Internet coordinates advertised by nodes of Internet coordinate systems during distance estimations. Indeed, some nodes may even lie deliberately about their coordinates to mount various attacks against applications and overlays. Our proposed method consists in two steps: 1) establish the correctness of a node's claimed coordinate by using the Surveyor infrastructure and malicious embedding neighbor detection; and 2) issue a time limited validity certificate for each verified coordinate. Validity periods are computed based on an analysis of coordinate inter-shift times observed by Surveyors. By doing this, each surveyor can estimate the time until the next shift and thus, can limit the validity of the certificate it issues to regular nodes for their calculated coordinates. Our method is illustrated using a trace collected from a Vivaldi system deployed on PlanetLab, where intershift times are shown to follow long-tail distribution (log-normal distribution in most cases, or Weibull distribution otherwise). We show the effectiveness of our method by measuring the impact of a variety of attacks, experimented on PlanetLab, on distance estimates
Optimization of packet forwarding in best-effort routers by Miguel Ángel Ruiz Sánchez( Book )

2 editions published in 2003 in English and held by 2 WorldCat member libraries worldwide

La tâche principale d'un routeur est d'acheminer des paquets jusqu'à leur destination finale en passant par les différentes réseaux. Comme chaque paquet est traité individuellement, la performance d'un routeur dépend du temps nécessaire pour traiter chaque paquet. Due à la croissance et à la diversité du trafic dans l'Internet, le traitement nécessaire pour acheminer des paquets doit être optimisé. Cette thèse propose des algorithmes pour optimiser la performance du traitement de paquets lors de leur acheminement dans les routeurs best-effort. Pour acheminer (réexpédier) des paquets, un routeur doit tout d'abord rechercher l'information de routage correspondant à chaque paquet. La recherche d'information de routage est basée sur l'adresse destination du paquet et elle s'appelle consultation d'adresse. Nous proposons dans cette thèse deux mécanismes pour la mise à jour incrémentale des table de routage basées sur des tries multibit. Tout d'abord, nous déterminons les conditions nécessaires pour supporter des mises à jour incrémentales dans les tries multibit. À partir de ces conditions, nous proposons des algorithmes et des structures de données pour effectuer ces mises à jour incrémentales. En particulier, nous proposons une structure de données que nous appelons le vecteur de bits PN (pour prefix nesting en anglais). Le vecteur de bits PN code un ensemble de préfixes et leurs relations d'inclusion, car cette information est nécessaire pour supporter des mises à jour incrémentales. Nous évaluons la performance de nos mécanismes implémentés en langage C. Nous présentons les performances de nos mécanismes pour les opérations de recherche, insertion et suppression. Nous présentons également les besoins en termes de mémoire. Une deuxième contribution de cette thèse est l'introduction d'une taxonomie et un cadre de référence pour les algorithmes de consultation rapide d'adresse IP. Notre taxonomie est basée sur l'observation que la difficulté de trouver le plus long préfixe commun avec l'adresse destination est sa double dimension: valeur et longueur. Lorsque nous présentons et classifions les différents mécanismes, l'accent est mis sur le type de transformation que l'on effectue sur l'ensemble de préfixes pour chaque mécanisme. Cette approche unificatrice que nous proposons nous permet de comprendre et de comparer les compromis des différentes mécanismes. Nous comparons les mécanismes en termes de leur complexité en temps et en espace. Nous comparons aussi leur performance en mesurant le temps de l'opération de recherche. Ces mesures sont réalisées sur une même plateforme et en utilisant une vrai table de routage. Une troisième contribution de cette thèse est un mécanisme qui optimise l'usage des buffers dans les routeurs pour offrir un haut dégrée d'isolation entre flux. Tout d'abord, nous étudions la fonctionnalité des buffers dans les routeurs et nous déterminons les caractéristiques souhaitables des buffers dans les routeurs. Ensuite nous proposons MuxQ un mécanisme qui fournit un haut degré d'isolation entre flux. MuxQ est basé sur l'idée de protéger la fonction de multiplexage de la fonction d'absorption de rafales d'un buffer. Nous évaluons MuxQ en utilisant le simulateur ns-2. En particulier, nous étudions la capacité de MuxQ pour isoler différent types de flux. Nous comparons les performances de notre mécanisme avec celles des mécanismes Drop-Tail, CSFQ, FRED et DRR. Nous présentons les résultats de simulations avec des conditions de trafic différentes. MuxQ est un mécanisme simple, deployable et qui fournit un haut degré d'isolation de flux, tout en gardant une quantité limitée d'état
Enhancing experimentation in wireless networks by Diego Dujovne( Book )

2 editions published in 2009 in English and held by 2 WorldCat member libraries worldwide

Depuis la création de la norme 802.11 en 1999 qui était exceptionnelle à l'époque, les réseaux locaux sans fil sont devenus un phénomène incontournable avec l'évolution des appareils mobiles. La recherche sur les réseaux sans-fil a rapidement évolué suivant des modèles adaptés du paradigme des réseaux filaires ce qui a conduit à un écart significatif entre la simulation et les résultats expérimentaux. En conséquence, afin de valider les protocoles sans fil ou les algorithmes, l'expérimentation sans fil devient un ressource importante. Cette thèse étudie les améliorations sur l'expérimentation sur les réseaux locaux sans fil, d'un point de vue méthodologique. Dans cette thèse, nous avons d'abord crée un nouveau modèle d'abstraction de données pour représenter les événements de réseau et de l'agrégation de données statistiques, en deuxième lieu, nous élaborons une méthodologie pour la gestion des données en vue de soutenir un modèle de base de données et enfin on remplace le traitement avec scripts sur mesure avec des modules de filtrage et de traitement. Ces trois principaux éléments convergent vers une méthodologie d'expérimentation qui pointe sur les conditions d'expérience et d'amélioration de la reproductibilité. De plus, nous présentons Wextool, outil de méthodologie pour la mise en oeuvre expérimentale sans fil et enfin, nous montrons les améliorations à travers une étude du multicast dans un scénario sans fil comme un cas d'utilisation et nous évaluons la performance du processus
Trafics bidirectionnels et asymétrie : mécanismes pour optimiser les performances et maximiser l'utilisation des liens de l'Internet by Fatma Louati( Book )

2 editions published in 2004 in French and held by 2 WorldCat member libraries worldwide

Les réseaux asymétriques sont des réseaux ne présentant pas la même capacité en terme de bande passante sur le lien ascendant qu'on appellera aussi le lien aller, et sur le lien descendant qu'on appellera aussi lien de retour. S de plus nous avons un trafic bidirectionnel sur de tels réseaux, paquets de données d'acquittements se partagent les ressources et ce partage pose d'énormes problèmes à TCP. Afin d'y remédier, une multitude de solution ont été proposées dans la littérature. Dans cette thèse, nous analysons les problèmes qu'une telle situation engendre, puis nous décrivons quelques unes des solutions des plus prometteuses. Nous démontrons par une étude performante de cas leur inefficacité. Nous proposons deux nouveaux ordonnanceurs ayant pour but commun de maximiser l'utilisation d'un lien asymétrique et satisfaire ainsi l'utilisateur de tels liens. Nous proposons d'abor ACQ de l'anglais Adaptive Class-based Queuing. ACQ manipule des agrégats de trafics, classés en deux catégories et dont l'ordonnancement s'adapte au trafic qui passe afin d'avoir toujours une utilisation maximale du lien asymétrique. Nous proposons ensuite VAQ (Virtual Ack-based Queueing). VAQ suit une approche granularité fine, c'est-à-dure qu'il manipule directement des paquets de données et d'acquittements avec toujours pour but de maximiser l'utilisation du lien. Nous mettons en évidence dans cette thèse l'augmentation importante de l'utilisation avec CQ et VAQ et montrons leur robustesse face à des changement dans les paramètres des réseaux
Architecture for content sharing in wireless networks by Mohamed Karim Sbai( Book )

2 editions published in 2010 in English and held by 2 WorldCat member libraries worldwide

P2P networks utilize efficiently resources shared by end-users. Hence, the global service is not based on the existence of any central server but on the collaboration among the users, which connect to each others forming spontaneous overlays. For instance, BitTorrent is a P2P content sharing protocol where users are both content providers and requestors. When a peer receives some pieces of the content, it sends them to other following some specific algorithms that encourage fair collaboration among peers. Some characteristics of P2P networks such as decentralization and autoorganization are also basic proprieties of mobile ad hoc networks (MANETs). In fact, a MANET is a spontaneous network of mobile nodes connecting to each other through wireless links. As the range of a wireless communication is limited, packets are routers and end-users. Hence, if the mechanisms managing the P2P overlay do not adapt to the dynamic underlying network, this will generate a big routing overhead. In this work, we design a content sharing protocol that takes into consideration the limitations of wireless networks and which is aware fundamental differences between the Internet and MANETs. The objective is to minimize the global download time of users by decreasing the network load and ensuring fair cooperation among peers. For this, our protocol adapts the algorithms of BitTorrent, mainly the neighbourhood selection algorithm to the topology of the wireless network, the mobility of node and cross trac. In addition, to considering the data plane, we design ecient algorithms to discover and update the members of a P2P overlay in MANETs. Our membership management protocol adapts to arrivals and departures of peers and changes in the topology due to the mobility of nodes. Our protocols have been validated through extensive NS-2 simulations and real experiments over the ORBIT plateform. To ensure the feasibility of these protocols, we implemented BitHoc a content sharing application that implements our protocols on real mobile devices and did further experiments in spontaneous networks of handhelds
GENERATION AUTOMATIQUE D'IMPLEMENTATION OPTIMISEES DE PROTOCOLES by Claude Castelluccia( Book )

2 editions published in 1996 in French and held by 2 WorldCat member libraries worldwide

UN COMPILATEUR DE PROTOCOLES EST UN OUTIL QUI GENERE A PARTIR D'UNE SPECIFICATION FORMELLE D'UN PROTOCOLE UNE IMPLEMENTATION. LES COMPILATEURS DE PROTOCOLES PRODUISENT GENERALEMENT DU CODE DE QUALITE MEDIOCRE EN TERME DE VITESSE D'EXECUTION ET DE TAILLE DU CODE ET SONT, POUR CETTE RAISON, PEU UTILISES. DANS CETTE THESE, NOUS MONTRONS QU'EN UTILISANT UNE APPROCHE SYNCHRONE ET EN OPTIMISANT LE CODE GENERE, IL EST POSSIBLE DE COMPILER DES SPECIFICATIONS FORMELLES EN DES IMPLEMENTATIONS TRES PERFORMANTES. NOUS AVONS DEVELOPPE UN COMPILATEUR DE PROTOCOLES QUI UTILISE CES DEUX TECHNIQUES. CE COMPILATEUR PREND EN ENTREE UNE SPECIFICATION MODULAIRE DU PROTOCOLE ECRITE DANS LE LANGAGE SYNCHRONE ESTEREL. LA SPECIFICATION EST COMPILEE EN UN AUTOMATE SEQUENTIEL PAR LE COMPILATEUR ESTEREL DANS UN FORMAT INTERMEDIAIRE (LE FORMAT OC). L'AUTOMATE EST ALORS OPTIMISE ET TRANSFORME EN UNE IMPLEMENTATION C PAR NOTRE OPTIMISATEUR DE PROTOCOLES, APPELE HIPPCO. HIPPCO AMELIORE LES PERFORMANCES DU CODE ET REDUIT SA TAILLE EN OPTIMISANT SIMULTANEMENT LA VITESSE D'EXECUTION DU CHEMIN COMMUN ET LA TAILLE DU CHEMIN RARE. NOUS EVALUONS LES PERFORMANCES DES IMPLEMENTATIONS DE NOTRE COMPILATEUR EN SPECIFIANT LE PROTOCOLE TCP ET EN COMPARANT LES PERFORMANCES DE L'IMPLEMENTATION AUTOMATIQUEMENT GENEREE AVEC CELLE D'UNE VERSION MANUELLE DERIVEE DE L'IMPLEMENTATION STANDARD BSD. LES RESULTATS SONT TRES ENCOURAGEANTS. LE CODE GENERE PAR HIPPCO EXECUTE MOINS D'INSTRUCTIONS ET UTILISE LE CACHE D'INSTRUCTIONS ET LE PIPELINING PLUS EFFICACEMENT QUE LE CODE BSD TOUT EN AYANT UNE TAILLE DE CODE RAISONNABLE
Est-ce que la vie privée existe toujours (dans les réseaux pair-à-pair) ? by Stevens Le Blond( Book )

2 editions published in 2011 in English and held by 2 WorldCat member libraries worldwide

Avec le paradigme pair-à-pair (P2P), chaque utilisateur partage ses ressources (e.g. stockage et bande passante) afin de fournir un service. Parce que le paradigme P2P passe à l'échelle, il est à ce jour utilisé par certains des systèmes les plus populaires de l'Internet. Cependant, les systèmes P2P tournant sur l'Internet peuvent permettre à un utilisateur malicieux d'associer l'adresse IP des participants avec d'autres informations personnelles, possiblement introduisant une faille majeure pour la protection de la vie privée. Afin d'évaluer la sévérité de cette menace, nous lançons des attaques contre la vie privée pour trois applications P2P: Une application pour le partage de fichiers (BitTorrent), une application temps réel (Skype), et une application anonymisante à faible latence (Tor). (a) En exploitant Skype, nous montrons qu'il est possible d'associer l'identité (e.g. nom et ville) d'une personne avec son adresse IP. Nous redimensionnons cette attaque afin de traquer la mobilité et le comportement de téléchargement d'un grand nombre de personnes. (b) En exploitant BitTorrent, nous démontrons qu'un adversaire peut continuellement espionner l'ensemble des téléchargements effectués par la plupart des utilisateurs de l'Internet, à partir d'une seule machine. Nous montrons également qu'il est possible de déterminer l'adresse IP des utilisateurs injectant de nouveaux contenus et que les 100 utilisateurs les plus actifs injectent 1/3 de tous les contenus. (c) En utilisant Tor, nous montrons qu'il est possible de révéler l'adresse IP, ou de tracer, des utilisateurs supposés être anonymes et nous montrons que le design de Tor peut aussi être exploit pour tracer une quantité significative de trafic ``anonyme'' additionnel (non P2P). Nous concluons que les applications P2P constituent une faille majeure pour la protection de la vie privée et décrivons brièvement une architecture pouvant atténuer cette menace
Study and optimization of data protection, bandwidth usage and simulation tools for wireless networks by Mohamed Amine Ismaïl( Book )

2 editions published in 2010 in English and held by 2 WorldCat member libraries worldwide

Today, many technical challenges remain in the design of wireless networks to support emerging services. The main contributions of this thesis are three-fold in addressing some of these issues. The first contribution addresses the reliability of wireless links, in particular through data protection against long fading time (also known as slow fading) in the context of a direct satellite-to-mobile link. We propose an innovative algorithm, called Multi Burst Sliding Encoding (MBSE), that extends the existing DVB-H intra-burst (MPEFEC) protection to an inter-burst protection. Our MBSE algorithm allows complete burst losses to be recovered, while taking into account the specificity of mobile hand-held devices. Based on an optimized data organization, our algorithm provides protection against long term fading, while still using the Reed-Solomon code already implemented in mobile hand-held chipsets. MBSE has been approved by the DVB Forum and was integrated in the DVB-SH standard in which it now plays a key role. The second contribution is related to the practical optimization of bandwidth usage in the context of wireless links. We have proposed WANcompress, a bandwidth compression technique for detecting and eliminating redundant network traffic by sending only a label instead of the original packets. It differs from standard compression techniques in that it removes redundant patterns over a large range of time (days/weeks, i.e. giga-bytes) where as existing compression techniques operate on a smaller windwos scales (seconds, i.e. few kilo-bytes). We performed intensive experiments that achieved compression factors up to 25 times, and acceleration factors up to 22 times. In a corporate trial conducted over a WiMAX network for one week, WANcompress improved the bitrate up to 10 times, and on average 33% of the bandwidth was saved. The third contribution is related to the simulation of wireless networks. We have proposed a 802.16 WiMAX module for the widely used ns-3 simulator. Our module provides a detailed and standard-compliant implementation of the Point to Multi-Point (PMP) topology with Time Division Duplex (TDD) mode. It supports a large number of features, thus enabling the simulation of a rich set of WiMAX scenarios, and providing close-to-real results. These features include Quality of Service (QoS) management, efficient scheduling for both up-link and downlink, packet classification, bandwidth management, dynamic flow creation, as well as scalable OFDM physical layer simulation. This module was merged with the main development branch of the ns-3 simulator, and has become one of its standard features as of version v3.8
Déploiement de service multicast dans les environnements hétérogènes by Fethi Filali( Book )

2 editions published in 2002 in English and held by 2 WorldCat member libraries worldwide

Outils d'expérimentation pour la recherche en réseaux by Mathieu Lacage( Book )

2 editions published in 2010 in English and held by 2 WorldCat member libraries worldwide

In this thesis, we consider the problem of optimizing the experimentation work -flow of a typical network researcher. Specifically, we firs identify the need for new experimentation tools which deal with the lack of realism of network simulations in general and which improve the lack of reproducibility, as well as the poor analysis and deployment facilities found in testbeds and field experiments. We then focus on the design and implementation of two new tools to close this gap between simulations on one side and testbed/field experiments on the other side. First, we integrate with the ns-3 core facilities transparent support for real-time simulation capabilities to allow arbitrary simulation models to be interconnected with the real world and then we build upon this groundwork to create NEPI, an experimentation tool which can automate the deployment of mixed experiments comprising simulations and testbed virtual machines. Second, we extend the ns-3 network simulator with a new Direct Code Execution module which is capable of executing within the simulator existing user space as well as kernel space protocol implementations and we demonstrate that the resulting system is both extremely robust and one order of magnitude more efficient CPU and memory wise that previous alternatives. These two new tools radically extend the scope of the network experiments that can be conducted with off the shelf hardware by allowing simulations, more controllable testbeds, and simplifying the switch between one and the other
 
moreShow More Titles
fewerShow Fewer Titles
Audience Level
0
Audience Level
1
  Kids General Special  
Audience level: 0.75 (from 0.67 for ETUDE DES ... to 0.92 for Applicabil ...)

Protocols for high-speed networks V : TC6 WG6.1/6.4 Fifth International Workshop on Protocols for High-Speed Networks (PfHSN '96), 28-30 October 1996, Sophia Antipolis, France
Covers
Alternative Names
Dabbous, W.

Languages
English (42)

French (12)