From Mobile to Cloud: Using Bio-Inspired Algorithms for Collaborative Application Offloading - Centre of Innovation in Telecommunications and Integration of services Accéder directement au contenu
Thèse Année : 2016

From Mobile to Cloud: Using Bio-Inspired Algorithms for Collaborative Application Offloading

Du mobile au Cloud: Utilisation d'algorithmes bio-inspirés pour une exécution distribuée collaborative d'applications mobiles

Roya Golchay
  • Fonction : Auteur
  • PersonId : 906033

Résumé

Not bounded by time and place, and having now a wide range of capabilities, smartphones are all-in-one always connected devices - the favorite devices selected by users as the most effective, convenient and necessary communication tools. Current applications developed for smartphones have to face a growing demand in functionalities - from users, in data collecting and storage - from IoT device in vicinity, in computing resources - for data analysis and user profiling; while - at the same time - they have to fit into a compact and constrained design, limited energy savings, and a relatively resource-poor execution environment. Using resource- rich systems is the classic solution introduced in Mobile Cloud Computing to overcome these mobile device limitations by remotely executing all or part of applications to cloud environments. The technique is known as application offloading. Offloading to a cloud - implemented as geographically-distant data center - however introduces a great network latency that is not acceptable to smartphone users. Hence, massive offloading to a centralized architecture creates a bottleneck that prevents scalability required by the expanding market of IoT devices. Fog Computing has been introduced to bring back the storage and computation capabilities in the user vicinity or close to a needed location. Some architectures are emerging, but few algorithms exist to deal with the dynamic properties of these environments. In this thesis, we focus our interest on designing ACOMMA, an Ant-inspired Collaborative Offloading Middleware for Mobile Applications that allowing to dynamically offload application partitions - at the same time - to several remote clouds or to spontaneously-created local clouds including devices in the vicinity. The main contributions of this thesis are twofold. If many middlewares dealt with one or more of offloading challenges, few proposed an open architecture based on services which is easy to use for any mobile device without any special requirement. Among the main challenges are the issues of what and when to offload in a dynamically changing environment where mobile device profile, context, and server properties play a considerable role in effectiveness. To this end, we develop bio-inspired decision-making algorithms: a dynamic bi-objective decision-making process with learning, and a decision-making process in collaboration with other mobile devices in the vicinity. We define an offloading mechanism with a fine-grained method-level application partitioning on its call graph. We use ant colony algorithms to optimize bi-objectively the CPU consumption and the total execution time - including the network latency.
Actuellement les smartphones possèdent un grand éventail de fonctionnalités. Ces objets tout en un sont constamment connectés. Le smartphone est l’appareil favori plébiscité par les utilisateurs, comme étant le plus efficace, pratique et nécessaire parmi tous les dispositifs de communication existants. Les applications actuelles développées pour les smartphones doivent donc faire face à une forte augmentation de la demande en termes de fonctionnalités - de la part des utilisateurs, en données collectées et enregistrées - de la part des objets IoT du voisinage, en ressources de calculs - pour l’analyse des données et le profilage des utilisateurs ; tandis que - dans un même temps - les smartphones doivent répondre à des critères de compacité et de conception qui les limitent en énergie et à un environnement d’exécution relativement pauvre en ressources. Utiliser un système riche en ressource est une solution classique introduite en informatique dans les nuages mobiles (Mobile Cloud Computing), celle-ci permet de contourner les limites des appareils mobiles en exécutant à distance, toutes ou certaines parties des applications dans ces environnements de nuage. Cependant, l’exécution déportée (offloading) - mise en oeuvre dans des centres de données géographiquement éloignés - introduit une grande latence du réseau, qui n’est pas acceptable pour les utilisateurs de smartphone. De plus, une exécution déportée (offloading) massive sur une architecture centralisée, crée un goulot d’étranglement, qui empêche l’évolution requise par l’expansion du marché des dispositifs de l’Internet des choses. L’informatique brumeuse (libre traduction du Fog Computing) a été introduite pour ramener le stockage et la capacité de calcul dans le voisinage de l’utilisateur ou à proximité d’un emplacement précis. Certaines architectures émergent, mais peu d’algorithmes existent pour traiter les propriétés dynamiques de ces environnements. Dans cette thèse, nous focalisons notre intérêt sur la conception d’ACOMMA (Ant-inspired Collaborative Offloading Middleware for Mobile Applications), un interlogiciel d’exécution déportée collaborative inspirée par le comportement des fourmis, pour les applications mobiles. C’est une architecture orientée service permettant de décharger dynamiquement des partitions d’applications, de manière simultanée, sur plusieurs clouds éloignés ou sur un cloud local créé spontanément, incluant les appareils du voisinage. Les principales contributions de cette thèse sont doubles. Si beaucoup d’intergiciels traitent un ou plusieurs défis relatifs à l’éxecution déportée, peu proposent une architecture ouverte basée sur des services qui serait facile à utiliser sur n’importe quel support mobile sans aucun exigence particulière. Parmi les principaux défis il y a les questions de quoi et quand décharger dans cet environnement changeant et très dynamique, où le profile et le contexte du dispositif mobile, et les propriétés du serveur jouent un rôle considérable dans l’efficacité. A cette fin, nous développons des algorithmes de prises de décisions bio-inspirées : un processus de prise de décision bi-objectif dynamique avec apprentissage et un processus de prise de décision en collaboration avec les autres dispositifs mobiles du voisinage. Nous définissons un mécanisme de déport d’exécution avec une méthode de partitionnement grain fin de son graphe d’appel. Nous utilisons les algorithmes des colonies de fourmis pour optimiser bi-objectivement la consommation du CPU et le temps total d’exécution, en incluant la latence du réseau. Nous montrons que les algorithmes des fourmis sont plus facilement re-adaptables face aux modifications du contexte, peuvent être très efficaces en ajoutant des algorithmes de cache par comparaison de chaîne (string matching caching) et autorisent facilement la dissémination du profil de l’application afin de créer une exécution déportée collaborative dans le voisinage.
Fichier principal
Vignette du fichier
these-RGO.pdf (17.11 Mo) Télécharger le fichier
Loading...

Dates et versions

tel-01346422 , version 1 (18-07-2016)

Identifiants

  • HAL Id : tel-01346422 , version 1

Citer

Roya Golchay. From Mobile to Cloud: Using Bio-Inspired Algorithms for Collaborative Application Offloading. Mobile Computing. Université de Lyon, 2016. English. ⟨NNT : 2016LYSEI009⟩. ⟨tel-01346422⟩
327 Consultations
319 Téléchargements

Partager

Gmail Facebook X LinkedIn More