Le séminaire du Laboratoire

Programmation pour 2017

AOU
24
13:30
L'Analyse Relationnelle Mathématique et ses applications en aide multicritère à la décision et en classification automatique.
email hidden; JavaScript is required
L'Analyse Relationnelle Mathématique (ARM) est une approche développée par J.F. Marcotorchino et P. Michaud à la fin des années 70 et qui s'inspire des travaux de Condorcet en théorie des votes. Elle propose un cadre formel pour l'étude de l’association et de l’agrégation de relations binaires telles que les relations de préférences, les relations d'équivalence... et fait intervenir des outils de la théorie des graphes, des statistiques et de l'optimisation. L'étude des relations d’ordre trouve des applications en statistiques non paramétriques (tau de Kendall, ...) et en aide multicritère à la décision (agrégation des préférences, ordres médians, ...). Tandis que l'étude des relations d'équivalence trouve des applications en statistiques des contingences (coefficient de Rand, Chi-deux, ...) et en classification automatique (correlation clustering, algorithme sans fixation du nombre de clusters,...) ...
Dans cet exposé, nous présentons les principaux fondements et résultats théoriques de l'ARM en aide multicritère à la décision et en classification automatique. Puis, nous présentons des extensions de ces modèles classiques au cas des relations d'ordre d'intervalle d'une part et au cas des relations binaires sur deux ensembles distincts d'autre part. Dans le cadre de ce dernier point, l'ARM donne des fondements relationnels au problème de la classification croisée dans la mesure où nous montrons que la relation binaire recherchée est celle d'une bijection.
JUN
29
13:30
DONNEES PERSONNELLES & COLLECTE.
email hidden; JavaScript is required
Le Réseau des réseaux, arme privilégiée des programmes étatique et économique de surveillance, capture chaque jour une gigantesque quantité de données. L’utilisateur qui s’y connecte trébuche puis tombe dans son « champ gravitationnel » ; étiré jusqu’à être pulvérisé en une multitude de données personnelles, son fantôme numérique disparait dans les abyssales de ce gouffre insondable.
La « donnée », or noir du XXIe siècle, est en France comme dans l’Union européenne, une notion fuyante qui, a contrario de son semblable la « donnée personnelle », ne fait l’objet d’aucune définition ni règlementation. Favorisant le côté obscur et inaccessible de l’Internet, une approche au plus près de ces notions s’impose.
Les « données personnelles » constituent pour Internet une cible de premier choix. Leur collecte est devenue primordiale. Les droits fondamentaux de l’internaute sont menacés, sa sphère privée se réduisant toujours un peu plus à chacune de ses connections. En réponse, le droit exige, en amont de toute collecte, le recueil du consentement libre et éclairé de l’utilisateur concerné.
JUN
15
14:30
Arbres de décision k-means.
email hidden; JavaScript is required
Les arbres de décision sont un modèle très utilisé en apprentissage automatique supervisé. Dans ce travail, nous appliquons des idées de classification non supervisée (clustering) à la construction d’arbres semblables à des arbres de décision. Les arbres sont ainsi construits en utilisant uniquement des critères de distance et non de pureté des classes produites. Nous présentons les arbres de décision obtenus et un critère de performance.
JUN
15
13:30
Décomposition de l’indice de Rand : conséquences pour la validation d’un partitionnement.
L'évaluation de la stabilité des classes est une étape importante lors de l’évaluation d’un partitionnement de données. L'indice de Rand, et sa version ajustée, sont fréquemment utilisés pour mesurer la stabilité d’un partitionnement. Dans cet exposé, nous présentons une décomposition barycentrique de l'indice de Rand qui mesure séparément l'isolement et la cohésion de chaque classe. A partir de cette décomposition, un indice ajusté appelé ACI est défini pour évaluer la stabilité d'un partitionnement. Il s'avère que cet indice est assez sensible pour détecter la présence de classes non fiables, y compris dans le cas où le partitionnement des données est évalué comme globalement stable par l'indice de Rand. Nous en déduisons une méthode qui permet de déterminer un nombre optimal de classes. Des expérimentations réalisées sur des jeux de données simulées et réelles, montrent l'efficacité de cette méthode dérivée de l’indice ACI.
JUN
12
13:30
MIRE-DNIIT : un projet de coopération scientifique Nord-Sud.
MIRE/DNIIT (Maison de l'Innovation et de la Recherche à l'Institut Internationale de technologie de Danang) est un projet de collaboration de recherche retenu dans le cadre d'appel à projets IDEX INT du MENENRS en 2016 et dans le cadre de projet IDEX JEDI de l'UCA (Comue Université Côte d'Azur) en 2017. Le projet est également labellisé CNFp (Campus Francophone partenaire) par l'AUF (Agence Universitaire de la Francophonie). Le projet est reposé sur un modèle de coopération dit "Campus sans mur" dans lequel les activités de coopération de recherche, innovation et formation sont organisées par les enseignants chercheurs des universités partenaires à l'intérieur d'une structure appartenant à l'université du Sud et reconnue par les autres partenaires mais sans effectif physique d'EC.
Le moteur de ce modèle est la collaboration de recherche et l'innovation dans le cadre de projets pluridisciplinaires forte valeur ajoutée économique et sociale dans le contexte régional et international. Deux secteurs de recherche prioritaires sont des "objets connectés/IoT et de l'Intelligence Artificielle. Deux domaines applicatifs prioritaires sont la e-santé et la smart city.
Nous présentons les 6 premiers projets de recherche appliquée actuellement déployés :
- EMOTICA : étudier et concevoir un ensemble d'outils de base à la détection de l'émotion à partir des signaux physiologiques
- IGLOO : étudier concevoir une méthodologie et un ensemble d'outils de base permettant de produire de la manière quasi déclarative des composantes logicielles
- SUSHA : étudier et concevoir un middleware pour la gestion intelligente dynamique des services issus des compositions optimales des composantes de base offertes par une masse d'Objets connectés
- PAPIOT : étudier et concevoir des équipements de basse consommation pour des réseaux d'objets très faible d'énergie dans le cadre de IoT
- POSCA : étudier et concevoir des systèmes de détection de la pollution par l'analyse de composition chimie à partir les signaux scannés par un micro spectromètre.
- SWAT : Étudier des outils de suivi des facteurs de risques environnementaux en particulier dans la gestion de ressources en eau.
Nous terminons par proposer un perspectif de la collaboration recherche , innovation et formation dans le cadre de MIRE/DNIIT.
JUN
12
10:00
Traçabilité et mémorisation des connaissances de projets : comment capitaliser des connaissances au quotidien ?
Daily knowledge is dependent to the context in which it is produced (activity, environments, tools, etc.). Representing this type of knowledge leads to represent also its context and especially, the organization and the environment in which it is produced. Based on this postulate, the generation of a sense cannot be done without the recognition of the context, which leaded to produce the reference. This postulate is more and more verified when we believe that knowledge is produced by the interaction of an actor with his environment. The challenge is how to capture the context of the production of knowledge and how to represent it in order to enhance the generation of sense when learning from this knowledge. “The learning content is context specific, and it implies discovery of what is to be done when and how according to the specific organizations routines” (Easterby-Smith et al, 2007). The main challenge is how to manage daily knowledge? How to keep track of it by considering all the element of the environment that contribute in its production: interaction, organization, roles, tasks, constraints, rules, means, methods, goals, product, artifact, etc.
JUN
1
13:30
Import, export et traduction sémantiques génériques basés sur une ontologie de langages de représentation de connaissances.
email hidden; JavaScript is required
Les langages de représentation de connaissances (LRCs) sont des langages qui permettent de représenter et partager des informations sous une forme logique. Il y a de nombreux LRCs. Chaque LRC a au moins un modèle structurel abstrait et peut avoir plusieurs notations. Ces modèles et notations ont été conçus pour répondre à des besoins de modélisation ou de calculabilité différents, ainsi qu'à des préférences différentes. Les outils actuels gérant ou traduisant des RCs ne travaillent qu'avec quelques LRCs et ne permettent pas – ou très peu – à leurs utilisateurs finaux d'adapter les modèles et notations de ces LRCs. Cette thèse contribue à résoudre ces problèmes pratiques et le problème de recherche original suivant : “une fonction d'import et une fonction d'export de RCs peuvent-elle être spécifiées de façon générique et, si oui, comment leurs ressources peuvent-elles êtres spécifiées ?”. Cette thèse s'inscrit dans un projet plus vaste dont l'objectif général est de faciliter le partage et la réutilisation des connaissances liées aux composants logiciels et à leurs présentations. L'approche suivie dans cette thèse est basée sur une ontologie de LRCs nommée KRLO, et donc sur une représentation formelle de ces LRCs.
KRLO a trois caractéristiques importantes et originales auxquelles cette thèse à contribué : i) elle représente des modèles de LRCs de différentes familles de façon uniforme, ii) elle inclut une ontologie de notations de LRCs, et iii) elle spécifie des fonctions génériques pour l'import et l'export de RCs dans divers LRCs. Cette thèse a contribué à améliorer la première version de KRLO (KRLO_2014) et à donner naissance à sa seconde version. KRLO_2014 contenait des imprécisions de modélisation qui rendaient son exploitation difficile ou peu pratique. Cette thèse a aussi contribué à la spécification et l'opérationnalisation de “Structure_map”, une fonction permettant d'écrire de façon modulaire et paramétrable toute autre fonction utilisant une boucle. Son utilisation permet de créer et d'organiser les fonctions en une ontologie de composants logiciels. Pour implémenter une fonction générique d'export basée sur KRLO, j'ai développé SRS (Structure_map based Request Solver), un résolveur d'expressions de chemins sur des RCs. SRS interprète toutes les fonctions. SRS apporte ainsi une validation expérimentale à la fois à l'utilisation de cette primitive (Structure_map) et à l'utilisation de KRLO.
Directement ou indirectement, SRS et KRLO pourront être utilisés par GTH, l'entreprise partenaire de cette thèse.
AVR
27
13:30
Séminaire des Stagiaires (Master 2)
AVR
27
16:00
Développement d’un moteur de recommandation pour un réseau social d'échange et de partage d'idées de cadeau entre proches : Pleazup.
email hidden; JavaScript is required
Pleazup est un réseau social de partage et d’échange d’idées de cadeau entre proches, disponible sous Android, iOS et Web (www.pleazup.com). Le stage a pour but de développer un moteur de recommandation ayant pour objectif de proposer aux utilisateurs des idées de cadeau originales d’après leur profil et les caractéristiques des idées de cadeau avec lesquelles ils ont intéragi auparavant. La première partie du stage a consisté à développer une recommandation statique en calculant périodiquement des métriques associés à chaque idée cadeau d’après les données sociales disponibles. La deuxième partie consiste à mettre en place une recommandation dynamique en faisant coopérer les utilisateurs. La troisième partie du stage consiste à faire de la recommandation basée sur les caractéristiques des idées de cadeau : données textes et images.
AVR
27
15:30
La métrologie.
Arnaud Ravoavahy
L’internet connaît une mutation au niveau de ses usages à l’île de la Réunion comme partout dans le monde. Un réseau mono-service pour transporter des fichiers binaires ou textuels il y a vingt ans, aujourd’hui il doit être un réseau multi-services pour le transport de données diverses et variées comme des données audio et vidéo. Toutefois, toutes tentatives pour garantir la qualité de service de l’internet ont échoué, notamment à cause d’une complète méconnaissance du trafic de l’internet et des raisons de complexité. La littérature propose d’utiliser la science des mesures appliquée à l’internet et son trafic pour répondre à ces problèmes. De ce fait, des recherches ont été faites sur la performance de l’accès internet à l’île de la Réunion. Un état des lieux a été établi à partir de la mise en place des sondes afin de collecter le trafic entrant et sortant. Ainsi, le cadre du stage se situe dans l’étude métrologique de ces données capturées afin de rechercher les anomalies affectant le réseau. Des outils ont été alors développés et finaliser afin d’obtenir des résultats fructueux puisqu’ils ont permis une publication scientifique.
AVR
27
15:00
Université Numérique thématique.
Fanjanirina Rabetsivalaka
Depuis 2009, les Universités Numériques Thématiques (UNT) mettent à disposition des étudiants et enseignants des ressources pédagogiques numériques de haute qualité académique dans divers domaines. Cependant, ces ressources restent peu exploitées car généralement peu connues, comme en attestent les enquêtes menées à l'Observatoire des Usages du Numérique de l'Université de La Réunion (OBSUN) : seuls 17% des enseignants disent exploiter occasionnellement les ressources des UNT alors que 61% utilisent des ressources pédagogiques tierces. On constate généralement un manque de visibilité des ressources produites par les universités dans l'espace numérique. Le stage proposé consiste donc à concevoir et expérimenter un protocole de valorisation virale d'une ressource pédagogique numérique, incluant la conception d'une architecture générique de recueil et d'analyse de données statistiques sur l'évolution de la popularité de cette ressource. Des indicateurs de popularité de la ressource seront relevés à intervalles fixes, en exploitant les possibilités des interfaces de programmation des principaux réseaux sociaux (nombre de vues, de commentaires, de "likes", etc.). Des indicateurs qualitatifs seront également attendus, afin de déterminer par exemple les canaux de découverte de la ressource (moteur de recherche, suggestions, abonnements, etc.) ou encore les modalités de réutilisation de cette dernière. Des tableaux de bord interactifs et dynamiques permettront de visualiser ces indicateurs et de repérer les effets de divers stimulis au sein des communautés d’utilisateurs.
AVR
27
14:30
La stéganographie.
Kevin Hoaraum
La stéganographie est une technique de dissimulation de l’information dont les origines remontent à l’Antiquité. A l’opposé de la cryptographie dont le but est de cacher le contenu d’un message, la stéganographie cherche à dissimuler la présence même de ce message. De nos jours, les procédés stéganographique sont largement utilisés, notamment pour l’établissement de canaux cachés. Ces derniers exploitent diverses propriétés logicielles et matérielles des systèmes informatiques pour communiquer de l’information sans éveiller les soupçons. L’objectif de mon stage est de d’évaluer la possibilité d’utiliser les traces de consommation énergétique pour établir un canal caché. Nous souhaitons détecter et discriminer les messages arrivant sur un smartphone par l’analyse de leurs empreintes énergétiques. Par exemple, en prenant un codage binaire ou` l’arrivée d’un SMS est perçue comme ’1’ et celle d’un email comme ’0’, il est possible d’encoder un message secret par l’envoi répété de SMS et d’email. Une application installée sur le smartphone pourra alors recevoir le message secret sans aucune permission de connexion réseau (GSM Wifi, etc.). Le canal caché ainsi établi permettra une communication entre deux entités : une tierce partie distante qui sera l’émetteur du message secret et un smartphone qui en sera le récepteur.
AVR
27
14:00
IPWeb.
Idris Adrien
Mon stage porte sur la mise en place d'IPweb au sein de l'UFR des Sciences. La fonctionnalité IPweb étant déjà présente au sein d'Apogée on se tourne sur les fonctionnalités de gestion des groupes de TD via l'outil IPweb.
AVR
27
13:30
Accompagnement d’un start-up dans sa phase de lancement.
Sébastien Macé
Dans une société hyper-connectée telle que la nôtre, rares sont les idées vraiment innovantes. Zeewa fait le pari de relever ce défi en proposant une application mobile d’un genre nouveau. Offrir à l’utilisateur une expérience où le génie logiciel couplé aux technologies des smartphones apportent des solutions innovantes dans la vie quotidienne. Zeewa se propose de générer des opportunités entre les utilisateurs lorsqu’ils sont à proximité. La programmation d’une application Full Web pour plateforme mobile a été le premier vecteur d’approche de ce stage. Très vite des problématiques telles que : l’administration système, le Maintien en Condition Opérationnelle (MCO), le design applicatif, les bases de données,... ont dû être adressés. Construire une production informatique afin de permettre le déploiement d’une application mobile aura été la finalité de mon stage.
AVR
13
13:30
Centrally-Controlled Mass Data Offloading Using Vehicular Traffic.
email hidden; JavaScript is required
With over 300 billion vehicle trips made in the USA and 64 billion in France per year, network operators have the opportunity to utilize the existing road and highway network as an alternative data network to offload large amounts of delay-tolerant traffic. To enable the road network as a large-capacity transmission system, we exploit the existing mobility of vehicles equipped with wireless and storage capacities together with a collection of offloading spots. An offloading spot is a data storage equipment located where vehicles usually park. Data is transloaded from a conventional data network to the closest offloading spot and then shipped by vehicles along their line of travel. The subsequent offloading spots act as data relay boxes where vehicles can drop off data for later pick-ups by other vehicles, depending on their direction of travel. The main challenges of this offloading system are how to compute the road path matching the performance requirements of a data transfer and how to configure the sequence of offloading spots involved in the transfer. We propose a scalable and adaptive centralized architecture built on SDN that maximizes the utilization of the flow of vehicles connecting consecutive offloading spots. We simulate the performance of our system using real roads traffic counts for France. Results show that the centralized controlled offloading architecture can achieve an efficient and fair allocation of concurrent data transfers between major cities in France.
MAR
30
13:30
Simulation multi-agents et calcul haute performance sur carte graphique.
Nombre de systèmes complexes sont aujourd'hui étudiés par simulation grâce à des modèles basés sur le paradigme multi-agents. Dans ces modèles, les individus, leur environnement et leurs interactions sont directement représentés. Ce type de simulation nécessite parfois de considérer un grand nombre d’entités, ce qui pose des problèmes de performance et de passage à l’échelle. Dans ce cadre, la programmation sur carte graphique (GPGPU) est une solution attrayante : elle permet des gains de performances très conséquents sur des ordinateurs personnels. Le GPGPU nécessite cependant une programmation extrêmement spécifique qui limite à la fois son accessibilité et la réutilisation des développements réalisés, ce qui est particulièrement vrai dans le contexte de la simulation multi-agents. Dans cet exposé, nous présenterons cette technologie et les travaux de recherche que nous avons réalisés afin de pallier ces difficultés. Nous décrirons en particulier une méthode de conception, appelée délégation GPU, qui permet :
(1) d'adapter les modèles multi-agents au contexte du GPGPU
et de
(2) faciliter la réutilisation des développements associés.
FEV
23
13:30
Modélisation & Simulation de Systèmes Naturels Anthropisés.
email hidden; JavaScript is required
en cours.
FEV
21
17:30
Identité numérique : et après ?.
email hidden; JavaScript is required
Depuis la signature du Traité UKUSA, de mystérieux radômes s’installent peu à peu dans les ambassades et bases militaires du monde entier. A l’intérieur de ces immenses balles de golf se cachent de très grandes antennes capables d’intercepter les communications électroniques. Pour reprendre l’intitulé du film d’Oliver Stone sur la vie d’Edward Snowden : « Nous sommes tous sur écoute ».
Au 1er janvier 1983, le germe de ce qui deviendra un autre mystère aux mêmes enjeux voit le jour. Le Réseau des réseaux devient de plus en plus sophistiqué et se répand à une vitesse telle qu’il entraine avec lui une collecte sans précédent de données, notamment personnelles. L’inquiétude se renforce d’autant avec la montée en puissance des géants du web, les BIG EYES. Jusqu’à quel point en savent-ils sur leurs utilisateurs ?
Cette recherche se place à la lisière du droit et de l’informatique. Par une approche opérationnelle du fonctionnement des outils informatiques matériels et logiciels, et sous le regard critique des règles de droit en présence, elle tend à identifier, s’il existe, le phénomène sous-jacent à la collecte de masse de données personnelles et à proposer le cas échéant l’encadrement juridique qui convient.