Le séminaire du Laboratoire

Programmation pour 2017

DEC
8
11:00
Use of Logical Models for Proving Operational Termination in General Models.
A declarative programming language is based on some logic L and its operational semantics is given by a proof calculus which is often presented in a natural deduction style by means of inference rules. Declarative programs are theories S of L and executing a program is proving goals Phi in the inference system I (S ) associated to S as a particularization of the inference system of the logic. The usual soundness assumption for L implies that every model A of S also satisfies Phi. In this setting, the operational termination of a declarative program is quite naturally defined as the absence of infinite proof trees in the inference system I (S ). Proving operational termination of declarative programs often involves two main ingredients: (i) the generation of logical models A to abstract the program execution (i.e., the provability of specific goals in I (S )), and (ii) the use of well-founded relations to guarantee the absence of infinite branches in proof trees and hence of infinite proof trees, possibly taking into account the information about provability encoded by A . In this tutorial we show how to deal with (i) and (ii) in a uniform way. The main point is the synthesis of logical models where well-foundedness is a side requirement for some specific predicate symbols.
DEC
8
10:00
Contributions à l'analyse de programme : expressivité et passage à l'échelle.
Cette dernière décennie a vu l'essor des analyses statiques plus seulement réservées aux systèmes embarqués critiques (avions, métros, fusées, etc.), mais maintenant disponibles plus largement, comme le montre l'implication de compagnies telles que Google ou Facebook dans le domaine.
Néanmoins, prouver l'absence de bugs d'un logiciel (problème que nous savons depuis Turing et Cook être intrinsèquement difficile) n'est pas le seul challenge en développement logiciel. En effet, la complexité toujours croissante des logiciels induit un besoin toujours croissant d'optimisations fiables.
La résolution de ces deux problèmes (fiabilité, optimisation) impose le développement de méthodes d'analyse statique sûres (sans faux négatifs), efficaces (en temps et en mémoire), mais suffisamment précises (avec un taux faible de faux positifs). La recherche de tels compromis est au coeur de mes travaux, qu'ils s'appliquent à la vérification formelle ou au domaine plus contraint des analyses pour les compilateurs.
DEC
8
09:00
Vérification formelle de programmes numériques.
Dans cet exposé, nous présenterons les outils mis en oeuvre pour vérifier des programmes utilisant l'arithmétique flottante, avec en particulier la bibliothèque Flocq de définitions et théorèmes Coq. Nous montrerons ensuite plusieurs programmes C vérifiés illustrant les principales difficultés.
DEC
7
13:30
IDENTITE NUMERIQUE & LIMITES.
Irrémédiablement attirées vers le Réseau des réseaux, les données personnelles, au gré des nouvelles technologies, s’extraient en masse de l’utilisateur connecté, traversant un long couloir de lumière pour s’immerger, le temps d’un instant, dans un disque de données numériques en flottement.
Par l’effet d’une dynamique propre aux traitements de données, elles ne restent pas inertes et se croisent, fusionnent, s’entrechoquent donnant naissance à des parcelles d’identités numériques, plus ou moins représentatives de l’utilisateur connecté. La beauté du phénomène se dévoile alors d’autant lorsque, sous l’entrelacement de ces identités numériques, apparaît l’homo numericus.
L’identité numérique : mythe ou réalité ? Impossible à la sculpter dans son intégralité faute de pouvoir recueillir l’ensemble des données personnelles d’un utilisateur donnée, l’identité numérique reste insaisissable. Ne succombant à aucune forme de pression, sa nature intrinsèquement évolutive ne s’encapsule dans aucun profil propre à prédire le futur. Ambiguë, elle masque en outre certains de ses aspects, induisant en erreur son admirateur. Ses limites imprègnent insidieusement le droit qui, sans solution, peine à l’encadrer.
NOV
29
13:30
Analyses de terminaison des calculs flottants.
Le tristement célèbre Ecran Bleu de la Mort de Windows introduit bien le problème traité. Ce bug est souvent causé par la non-terminaison d'un pilote matériel : le programme s'exécute infiniment, bloquant ainsi toutes les ressources qu'il s'est approprié pour effectuer ses calculs. Cette thèse développe des techniques qui permettent de décider, c'est-à-dire connaitre de façon certaine, la terminaison d'un programme donné pour l'ensemble des valeurs possibles de ses paramètres en entrée.
En particulier, nous nous intéressons aux programmes qui manipulent des nombres flottants. Ces nombres sont omniprésents dans les processeurs actuels et sont utilisés par pratiquement tous les développeurs informatiques. Pourtant, ils sont souvent mal compris et, de fait, source de bugs. En effet, les calculs flottants sont entachés d'erreurs, inhérentes au fait qu'ils sont effectués avec une mémoire finie. Par exemple, bien que vraie dans les réels, l'égalité 0.2 + 0.3 = 0.5 est fausse dans les flottants. Non gérées correctement, ces erreurs peuvent amener à des évènements catastrophiques, tel l'incident du missile Patriot qui a fait 28 morts.
Les théories que nous développons sont illustrées, et mises à l'épreuve, par des extraits de codes issus de programmes largement répandus. Notamment, nous avons pu exhiber des bugs de terminaisons dues à des calculs flottants incorrects dans certains paquets de la distribution Ubuntu.
NOV
9
13:30
Sur une conjecture de Thiagarajan.
Cette conjecture porte sur les dépliages des automates finis concurrents. Elle stipule qu'un dépliage n'a pas de grille si et seulement si on peut vérifier toute propriété logique quantifiant sur les ensembles de sommets. On explicitera cette conjecture en donnant bien des exemples.
NOV
2
14:00
Infinite automata for term languages.
A convenient way to visualize the behaviour of an abstract computation model is to view its configurations and transitions as the vertices and edges of a graph. Since most computation models involve an infinite number of distinct configurations, it is useful to carefully study and understand the corresponding classes of infinite graphs. In particular, questions relative to their algorithmic properties, or the closure properties of the considered class, are relevant to potential applications. In this talk we will first illustrate, through a recurring example, a well-understood class of infinite graphs (mainly due to Caucal) which admits several equivalent characterizations, namely that of "regular" or "pushdown" graphs. We will then introduce a few research questions concerning a class of term languages and its relationship with "regular" hypergraphs.
OCT
26
15:30
Are Balanced Binary Search Trees Optimal?
Balanced binary search trees (BBST) are one of the most fundamental data structures that we learn, and are useful in many settings. One particular application is in answering a 1-d orthogonal range query: given n input numbers, and a query number, output all the numbers in the input smaller than the query number. We formulate this as an optimization problem and building on Fredman's result from the 80's show that BBST are close to the optimum solution.
OCT
26
13:30
Branching automata.
Several automata have been defined for concurrent behaviours, beginning with the famous Petri nets (1962). With Pascal Weil, also with K. Ranganyakulu and K. Rangarajan (2000, 2003), we introduced "branching automata" and obtained algebraic structure for series-parallel po(m)set behaviour. Extensions to the model were made by Dietrich Kuske and Ingmar Meinecke (2003, 2004), and by Zoltan Esik and Zoltan Nemeth (2004, 2006). More recent work on logic is by Nicolas Bedon (2015). Recently Paul Brunet and Damien Pous (2015, 2017), also with Tobias Kappe, Bas Luttik, Alexandra Silva and Fabio Zanasi (2017), have defined alternative models called Petri automata and pomset automata. This talk surveys these models and the results on them.
OCT
19
13:30
Modèle des blocs latents : sélection de modèles et évaluation grâce à l’indice de rand ajusté pour la classification croisée.
Avec l’avènement des données massives en informatique et en statistique, le coclustering ou classification croisée est une méthode qui suscite un vif intérêt depuis quelques années, dans des domaines très variés, tels que la fouille de données textuelles, les systèmes de recommandations, la génétique, la pharmacovigilance, etc... Cette technique très utile vise à réduire une matrice de données en une matrice plus simple, mais qui possède la même structure. En effet, en tirant profit de la nature bidimensionnelle du problème, celle-ci permet de fournir simultanément une partition de deux ensembles, A (lignes, observations, individus) et B (colonnes, variables, attributs). Dans ce cadre, nous proposons d’étudier plus particulièrement le modèle des blocs latents. Dans cet exposé, nous expliciterons le modèle des blocs latents ainsi que les algorithmes utilisés pour l’estimation des paramètres du modèle. Ensuite, nous proposerons des critères de sélection de modèle qui permettent de sélectionner de manière automatique le nombre de classes en ligne et en colonne. De plus, pour contourner le problème des données volumineuses, une procédure basée sur des initialisations récursives des algorithmes, appelée Bi-KM1 est proposée. Enfin, pour mesurer les performances des algorithmes proposés, nous développons un nouvel indice de classification croisée noté CARI (Coclustering Adjusted Rand Index) basé sur le très consensuel indice de Rand.
OCT
12
13:30
Artéfacts matériels et numériques pour l’enseignement et l'apprentissage des mathématiques.
Le séminaire traitera la question de l’utilisation et intégration d’artéfacts dans la classe de mathématiques. Cette question présente divers volets : le type d’artéfact, matériel et numérique ; le choix de l’artéfact et la conception des activités pour les élèves ; l’organisation de la classe ; le travail de l’enseignant. Ils seront abordés à partir de la recherche sur le duo d’artéfacts « pascaline/e-pascaline ».
OCT
12
14:30
L'algèbre au Moyen Âge à travers les traductions arabo-latines d'al-Andalus.
Dans le vaste mouvement d’appropriation par l’Europe latine des sciences des pays d’Islam, l’algèbre occupe une place non négligeable. En particulier, le Kitāb al-mukhtaṣar fī ḥisāb al-jabr wa-l-muqābala [Livre condensé sur le calcul par la restauration et la comparaison] d’al-Khwārizmī, texte rédigé à Bagdad entre 813 et 833 et reconnu comme acte de naissance officiel de la discipline, est plusieurs fois traduit en latin puis en langue vernaculaire. Dans cet exposé, je reviendrai brièvement sur l’introduction de l’algèbre en Europe, notamment via les traductions arabo-latines du texte d’al-Khwārizmī. Je m’attacherai à présenter le contenu de ces traductions ainsi que les nouvelles pratiques mathématiques qu’elles ont permises en Europe, notamment chez des auteurs du XIIIe siècle comme Léonard de Pise ou Jordanus de Nemore.
OCT
11
14:00
Les machines mathématiques dans le laboratoire des mathématiques.
campus du Tampon
Le séminaire présentera les machines mathématiques de l’Université de Modena e Reggio Emilia (www.mmlab.unimore.it) à travers leur histoire et les activités conçues pour les classes et la formation des enseignants. Elles seront considérées dans le cadre du laboratoire de mathématiques et dans la perspective de la vulgarisation des mathématiques.
OCT
9
15:00
Enseigner les mathématiques avec Léonard & Léonard.
campus du Tampon
À partir d’expériences menées dans le cadre de l’IREM de Limoges et de la commission inter-IREM « épistémologie et histoire des mathématiques », nous présenterons les objectifs et les modalités de projets d’introduction d’une perspective historique dans l’enseignement des mathématiques. Ces projets menés aux cycles 3 et 4 concernent à la fois la géométrie et la résolution de problèmes numériques. Nous exhiberons d’abord de brefs éléments historiques médiévaux et renaissants qui servent de base à l’expérimentation, puis nous détaillerons l’organisation réelle des expériences (à l’école et au collège). Nous finirons par l’analyse des travaux menés en classe en termes de démarches et de compétences évaluées.
OCT
9
13:30
Mathématiques d’école : les manuels scolaires de la Troisième République.
Conférence à l'ESPE, amphi du site de Bellepierre
Cette communication a pour objectif d’accompagner l’exposition éponyme. Nous nous attacherons à décrire le contexte de l’école de la Troisième République – gratuite, obligatoire et laïque – afin de mieux comprendre l’enseignement des mathématiques de la fin du XIXe siècle et du début du XXe. Soucieux d’illustrer notre propos par des extraits de conférences pédagogiques, de manuels scolaires, d’instructions officielles voire de travaux d’élèves, nous tenterons de soulever quelques questions didactiques sur l’enseignement de la géométrie, de la règle de trois et d’autres, plus générales, sur les valeurs de la République, l’image de la société qui sont véhiculées au sein de l’école dès 1870. Notre exposé mettra enfin en valeur, à partir d’exemples menés dans le cadre de l’ESPE de l’académie de Limoges, les différentes problématiques de recherche pour la mention « premier degré » du Master MEEF en lien avec les travaux d’histoire de l’enseignement mathématique.
OCT
5
13:30
Les automates musicaux, du dix-huitième siècle jusqu’à leur utilisation actuelle dans la musique malgache.
En mathématique, les automates désignent des objets abstraits permettant de représenter des transitions entre évènements. Bien que le concept ne soit introduit sur le plan théorique qu’au vingtième siècle dans le sillage des travaux de Turing, il était déjà présent en musique dans les jeux de dés musicaux en vogue au dix-huitième siècle ainsi que dans de petits objets de l’époque appelés « componiums » où les degrés de liberté du système étaient matérialisés par des cylindres en rotation autour d’un même axe. Aujourd’hui, les automates musicaux sont utilisés dans des recherches sur l'improvisation avec ordinateur qui ont donné naissance au logiciel Djazz (http://digitaljazz.fr). On montrera les travaux réalisés avec ce logiciel en interaction avec des musiciens malgaches. On expliquera plus précisément comment l’improvisateur artificiel implémenté dans l’ordinateur se synchronise avec des musiciens réels dans le cas de répertoires traditionnels, notamment ceux qui sont basés sur les rythmes ternaires caractéristiques de l’Océan indien. L’exposé sera illustré par des vidéos présentant un projet mené avec le guitariste virtuose de Madagascar Charles Kely Zana-Rotsy dont la musique est un prolongement original des traditions malgaches s’ouvrant au jazz et à la world music.
OCT
5
14:30
À propos de l'extraction des règles d'association : normalisation des mesures d'intérêt par homographie et fonction de normalisation.
Dans le souci de contribuer à une mise en place d’une théorie unificatrice vivement souhaitée dans la communauté de ladite science des données, face au foisonnement des mesures d’intérêt existant dans la littérature (une soixantaine !), nous proposons le concept de mesure normalisée de la qualité des règles d’association sous cinq conditions et présentons des propriétés algébriques : la procédure de normalisation d’une mesure non normalisée, mais normalisable, fondée sur un homéomorphisme affine d’abord, puis étendue récemment et avantageusement à un homéomorphisme homographique. Dans cette démarche, ladite mesure MGK (parfois appelée ION ou CPIR) joue un rôle central à l’instar de la loi normale centrée réduite dans la famille des lois normales en théorie des probabilités. Ce qui nous amène à consacrer une attention particulière à MGK quant à ses propriétés et possibilités d’exploitation efficace en contrôle de qualité et en didactique des probabilités conditionnelles. Quelques problèmes de recherche termineront la conférence.
OCT
4
14:00
Ethnomathématique et simulation informatique.
L’apparition de l’ethnomathématique il y a quelques décennies a rendu possible une recherche sur la pratique des mathématiques en dehors du contexte de l’écriture dans des sociétés de tradition purement orale, et la mise en place de véritables enquêtes de terrain consacrées à ces questions mathématiques. L'immersion du chercheur dans son contexte d'enquête s'appuie généralement sur l'usage d'artéfacts (crayons, carnets, caméras, enregistreurs audios, etc.) qui peuvent prendre aujourd'hui des formes très sophistiquées avec le développement de l'informatique. Il arrive même que l’on puisse développer des modèles théoriques traduisibles en programmes informatiques capables d'engendrer des substituts des phénomènes étudiés, c'est-à-dire des objets culturels conformes à ceux qui sont produits par des savoirs traditionnels. Par exemple, on peut calculer avec un logiciel adapté des configurations divinatoires dans le cas de savoirs concernant la géomancie. La confrontation de dispositifs de ce type avec la réalité du terrain ouvre des perspectives nouvelles qu'il faut interroger. On montrera deux exemples de cette approche dite de "simulation", l'un concernant une étude ethnomathématique menée sur la divination sikidy pratiquée à Madagascar, l'autre se rapportant au développement d’un logiciel pour l’improvisation musicale utilisé en interaction avec des musiciens malgaches.
OCT
4
15:00
Pertinence et faisabilité de l'enseignement précoce de la géométrie hyperbolique.
Nous analysons les enjeux des fonctions homographiques réelles, qui figurent implicitement dans tout programme scolaire, et l’importance des suites récurrentes homographiques en terminales scientifiques. Nous montrons que la résolution des problèmes inverses d’homographies permet d’élaborer efficacement ses propres suites homographiques à volonté, et ce, avec deux ou trois degrés de liberté, en considérant les suites arithmétiques et géométriques comme outils. Nous tentons par là de montrer la pertinence et la faisabilité de l’initiation précoce à la géométrie hyperbolique.
OCT
4
16:00
Échanges autour de l’école d’été de didactique des mathématiques.
L’École d’Été de didactique des mathématiques est organisée tous les deux ans à l’initiative de l’Association pour la Recherche en Didactique des Mathématiques (ARDM). Elle propose un enseignement sous forme de cours et de TD à partir des avancées récentes et significatives des recherches dans ce domaine. Elle permet également des échanges avec les équipes qui ont contribué à ces recherches. La 19e école d’été de didactique des mathématiques s’est tenue à Paris en aout 2017. Mon intervention vise à vous faire partager ma participation à cette école d'été qui avait pour thèmes la géométrie et l’évaluation.
OCT
2
14:00
Le problème du sous-espace invariant.
Le problème du sous-espace invariant pour les espaces de Hilbert séparables est à ce jour un problème encore ouvert et constitue l'un des problèmes les plus célèbres en théorie des opérateurs. Il s'agit de déterminer si une application linéaire continue T sur un espace de Hilbert possède un sous-espace fermé M, non trivial, tel que T(M) inclus dans M (i.e. M invariant). Il existe de nombreuses classes d'opérateurs où la réponse est positive, comme pour les opérateurs normaux ou compacts. Nous en ferons une présentation, non exhaustive et nous décrirons certains opérateurs très simples pour lesquels la connaissance des sous-espaces invariants permettrait de résoudre ce problème célèbre.
SEP
29
10:30
Le théorème inachevé de Cantor et spectre dénombrable.
Cantor avait une motivation très précise pour inventer la théorie d'ensemble. Il essayait de développer des outils pour prouver un théorème sur l'unicité du développement d'une fonction en série trigonométrique. Et effectivement, une fois la méthode de l'induction transfinie établie (ou de manière équivalente, le théorème de Zermelo démontré), on peut achever la démonstration. Cantor ne l'a jamais fait ou au moins n'a-t-il jamais publié l'argument. Nous allons le donner dans l'exposé, qui d'ailleurs ne sera pas technique. Nous expliquerons aussi comment cette méthode mène à des théorèmes Tauberiens plus modernes, par exemple sur la convergence des semi-groupes si le spectre du générateur est dénombrable.
SEP
28
10:30
An pour ${\cal M}(D)$}, et de Kamal Boussaf et Abdelbaki Boutabaa pour l'ordre de croissance.
On rappelle la théorie de Nevanlinna p-adique dans les cas classiques: dans le corps de référence entier IK et dans un disque ''ouvert'', puis on décrit la théorie de Nevanlinna dans le complémentaire d'un tel disque, (comme il a été fait récemment dans IC) et on énonce les applications dans ces trois domaines. On évoque également l'ordre de croissance des fonctions entières et la conjecture de Hayman.
SEP
27
10:00
Du bon usage des séries inconditionnellement convergentes.
à venir
AOU
24
13:30
L'Analyse Relationnelle Mathématique et ses applications en aide multicritère à la décision et en classification automatique.
L'Analyse Relationnelle Mathématique (ARM) est une approche développée par J.F. Marcotorchino et P. Michaud à la fin des années 70 et qui s'inspire des travaux de Condorcet en théorie des votes. Elle propose un cadre formel pour l'étude de l’association et de l’agrégation de relations binaires telles que les relations de préférences, les relations d'équivalence... et fait intervenir des outils de la théorie des graphes, des statistiques et de l'optimisation. L'étude des relations d’ordre trouve des applications en statistiques non paramétriques (tau de Kendall, ...) et en aide multicritère à la décision (agrégation des préférences, ordres médians, ...). Tandis que l'étude des relations d'équivalence trouve des applications en statistiques des contingences (coefficient de Rand, Chi-deux, ...) et en classification automatique (correlation clustering, algorithme sans fixation du nombre de clusters,...) ...
Dans cet exposé, nous présentons les principaux fondements et résultats théoriques de l'ARM en aide multicritère à la décision et en classification automatique. Puis, nous présentons des extensions de ces modèles classiques au cas des relations d'ordre d'intervalle d'une part et au cas des relations binaires sur deux ensembles distincts d'autre part. Dans le cadre de ce dernier point, l'ARM donne des fondements relationnels au problème de la classification croisée dans la mesure où nous montrons que la relation binaire recherchée est celle d'une bijection.
JUN
29
13:30
DONNEES PERSONNELLES & COLLECTE.
Le Réseau des réseaux, arme privilégiée des programmes étatique et économique de surveillance, capture chaque jour une gigantesque quantité de données. L’utilisateur qui s’y connecte trébuche puis tombe dans son « champ gravitationnel » ; étiré jusqu’à être pulvérisé en une multitude de données personnelles, son fantôme numérique disparait dans les abyssales de ce gouffre insondable.
La « donnée », or noir du XXIe siècle, est en France comme dans l’Union européenne, une notion fuyante qui, a contrario de son semblable la « donnée personnelle », ne fait l’objet d’aucune définition ni règlementation. Favorisant le côté obscur et inaccessible de l’Internet, une approche au plus près de ces notions s’impose.
Les « données personnelles » constituent pour Internet une cible de premier choix. Leur collecte est devenue primordiale. Les droits fondamentaux de l’internaute sont menacés, sa sphère privée se réduisant toujours un peu plus à chacune de ses connections. En réponse, le droit exige, en amont de toute collecte, le recueil du consentement libre et éclairé de l’utilisateur concerné.
JUN
15
14:30
Arbres de décision k-means.
Les arbres de décision sont un modèle très utilisé en apprentissage automatique supervisé. Dans ce travail, nous appliquons des idées de classification non supervisée (clustering) à la construction d’arbres semblables à des arbres de décision. Les arbres sont ainsi construits en utilisant uniquement des critères de distance et non de pureté des classes produites. Nous présentons les arbres de décision obtenus et un critère de performance.
JUN
15
13:30
Décomposition de l’indice de Rand : conséquences pour la validation d’un partitionnement.
L'évaluation de la stabilité des classes est une étape importante lors de l’évaluation d’un partitionnement de données. L'indice de Rand, et sa version ajustée, sont fréquemment utilisés pour mesurer la stabilité d’un partitionnement. Dans cet exposé, nous présentons une décomposition barycentrique de l'indice de Rand qui mesure séparément l'isolement et la cohésion de chaque classe. A partir de cette décomposition, un indice ajusté appelé ACI est défini pour évaluer la stabilité d'un partitionnement. Il s'avère que cet indice est assez sensible pour détecter la présence de classes non fiables, y compris dans le cas où le partitionnement des données est évalué comme globalement stable par l'indice de Rand. Nous en déduisons une méthode qui permet de déterminer un nombre optimal de classes. Des expérimentations réalisées sur des jeux de données simulées et réelles, montrent l'efficacité de cette méthode dérivée de l’indice ACI.
JUN
12
13:30
MIRE-DNIIT : un projet de coopération scientifique Nord-Sud.
MIRE/DNIIT (Maison de l'Innovation et de la Recherche à l'Institut Internationale de technologie de Danang) est un projet de collaboration de recherche retenu dans le cadre d'appel à projets IDEX INT du MENENRS en 2016 et dans le cadre de projet IDEX JEDI de l'UCA (Comue Université Côte d'Azur) en 2017. Le projet est également labellisé CNFp (Campus Francophone partenaire) par l'AUF (Agence Universitaire de la Francophonie). Le projet est reposé sur un modèle de coopération dit "Campus sans mur" dans lequel les activités de coopération de recherche, innovation et formation sont organisées par les enseignants chercheurs des universités partenaires à l'intérieur d'une structure appartenant à l'université du Sud et reconnue par les autres partenaires mais sans effectif physique d'EC.
Le moteur de ce modèle est la collaboration de recherche et l'innovation dans le cadre de projets pluridisciplinaires forte valeur ajoutée économique et sociale dans le contexte régional et international. Deux secteurs de recherche prioritaires sont des "objets connectés/IoT et de l'Intelligence Artificielle. Deux domaines applicatifs prioritaires sont la e-santé et la smart city.
Nous présentons les 6 premiers projets de recherche appliquée actuellement déployés :
- EMOTICA : étudier et concevoir un ensemble d'outils de base à la détection de l'émotion à partir des signaux physiologiques
- IGLOO : étudier concevoir une méthodologie et un ensemble d'outils de base permettant de produire de la manière quasi déclarative des composantes logicielles
- SUSHA : étudier et concevoir un middleware pour la gestion intelligente dynamique des services issus des compositions optimales des composantes de base offertes par une masse d'Objets connectés
- PAPIOT : étudier et concevoir des équipements de basse consommation pour des réseaux d'objets très faible d'énergie dans le cadre de IoT
- POSCA : étudier et concevoir des systèmes de détection de la pollution par l'analyse de composition chimie à partir les signaux scannés par un micro spectromètre.
- SWAT : Étudier des outils de suivi des facteurs de risques environnementaux en particulier dans la gestion de ressources en eau.
Nous terminons par proposer un perspectif de la collaboration recherche , innovation et formation dans le cadre de MIRE/DNIIT.
JUN
12
10:00
Traçabilité et mémorisation des connaissances de projets : comment capitaliser des connaissances au quotidien ?
Daily knowledge is dependent to the context in which it is produced (activity, environments, tools, etc.). Representing this type of knowledge leads to represent also its context and especially, the organization and the environment in which it is produced. Based on this postulate, the generation of a sense cannot be done without the recognition of the context, which leaded to produce the reference. This postulate is more and more verified when we believe that knowledge is produced by the interaction of an actor with his environment. The challenge is how to capture the context of the production of knowledge and how to represent it in order to enhance the generation of sense when learning from this knowledge. “The learning content is context specific, and it implies discovery of what is to be done when and how according to the specific organizations routines” (Easterby-Smith et al, 2007). The main challenge is how to manage daily knowledge? How to keep track of it by considering all the element of the environment that contribute in its production: interaction, organization, roles, tasks, constraints, rules, means, methods, goals, product, artifact, etc.
JUN
1
13:30
Import, export et traduction sémantiques génériques basés sur une ontologie de langages de représentation de connaissances.
Les langages de représentation de connaissances (LRCs) sont des langages qui permettent de représenter et partager des informations sous une forme logique. Il y a de nombreux LRCs. Chaque LRC a au moins un modèle structurel abstrait et peut avoir plusieurs notations. Ces modèles et notations ont été conçus pour répondre à des besoins de modélisation ou de calculabilité différents, ainsi qu'à des préférences différentes. Les outils actuels gérant ou traduisant des RCs ne travaillent qu'avec quelques LRCs et ne permettent pas – ou très peu – à leurs utilisateurs finaux d'adapter les modèles et notations de ces LRCs. Cette thèse contribue à résoudre ces problèmes pratiques et le problème de recherche original suivant : “une fonction d'import et une fonction d'export de RCs peuvent-elle être spécifiées de façon générique et, si oui, comment leurs ressources peuvent-elles êtres spécifiées ?”. Cette thèse s'inscrit dans un projet plus vaste dont l'objectif général est de faciliter le partage et la réutilisation des connaissances liées aux composants logiciels et à leurs présentations. L'approche suivie dans cette thèse est basée sur une ontologie de LRCs nommée KRLO, et donc sur une représentation formelle de ces LRCs.
KRLO a trois caractéristiques importantes et originales auxquelles cette thèse à contribué : i) elle représente des modèles de LRCs de différentes familles de façon uniforme, ii) elle inclut une ontologie de notations de LRCs, et iii) elle spécifie des fonctions génériques pour l'import et l'export de RCs dans divers LRCs. Cette thèse a contribué à améliorer la première version de KRLO (KRLO_2014) et à donner naissance à sa seconde version. KRLO_2014 contenait des imprécisions de modélisation qui rendaient son exploitation difficile ou peu pratique. Cette thèse a aussi contribué à la spécification et l'opérationnalisation de “Structure_map”, une fonction permettant d'écrire de façon modulaire et paramétrable toute autre fonction utilisant une boucle. Son utilisation permet de créer et d'organiser les fonctions en une ontologie de composants logiciels. Pour implémenter une fonction générique d'export basée sur KRLO, j'ai développé SRS (Structure_map based Request Solver), un résolveur d'expressions de chemins sur des RCs. SRS interprète toutes les fonctions. SRS apporte ainsi une validation expérimentale à la fois à l'utilisation de cette primitive (Structure_map) et à l'utilisation de KRLO.
Directement ou indirectement, SRS et KRLO pourront être utilisés par GTH, l'entreprise partenaire de cette thèse.
AVR
27
13:30
Séminaire des Stagiaires (Master 2)
AVR
27
16:00
Développement d’un moteur de recommandation pour un réseau social d'échange et de partage d'idées de cadeau entre proches : Pleazup.
Pleazup est un réseau social de partage et d’échange d’idées de cadeau entre proches, disponible sous Android, iOS et Web (www.pleazup.com). Le stage a pour but de développer un moteur de recommandation ayant pour objectif de proposer aux utilisateurs des idées de cadeau originales d’après leur profil et les caractéristiques des idées de cadeau avec lesquelles ils ont intéragi auparavant. La première partie du stage a consisté à développer une recommandation statique en calculant périodiquement des métriques associés à chaque idée cadeau d’après les données sociales disponibles. La deuxième partie consiste à mettre en place une recommandation dynamique en faisant coopérer les utilisateurs. La troisième partie du stage consiste à faire de la recommandation basée sur les caractéristiques des idées de cadeau : données textes et images.
AVR
27
15:30
La métrologie.
Arnaud Ravoavahy
L’internet connaît une mutation au niveau de ses usages à l’île de la Réunion comme partout dans le monde. Un réseau mono-service pour transporter des fichiers binaires ou textuels il y a vingt ans, aujourd’hui il doit être un réseau multi-services pour le transport de données diverses et variées comme des données audio et vidéo. Toutefois, toutes tentatives pour garantir la qualité de service de l’internet ont échoué, notamment à cause d’une complète méconnaissance du trafic de l’internet et des raisons de complexité. La littérature propose d’utiliser la science des mesures appliquée à l’internet et son trafic pour répondre à ces problèmes. De ce fait, des recherches ont été faites sur la performance de l’accès internet à l’île de la Réunion. Un état des lieux a été établi à partir de la mise en place des sondes afin de collecter le trafic entrant et sortant. Ainsi, le cadre du stage se situe dans l’étude métrologique de ces données capturées afin de rechercher les anomalies affectant le réseau. Des outils ont été alors développés et finaliser afin d’obtenir des résultats fructueux puisqu’ils ont permis une publication scientifique.
AVR
27
15:00
Université Numérique thématique.
Fanjanirina Rabetsivalaka
Depuis 2009, les Universités Numériques Thématiques (UNT) mettent à disposition des étudiants et enseignants des ressources pédagogiques numériques de haute qualité académique dans divers domaines. Cependant, ces ressources restent peu exploitées car généralement peu connues, comme en attestent les enquêtes menées à l'Observatoire des Usages du Numérique de l'Université de La Réunion (OBSUN) : seuls 17% des enseignants disent exploiter occasionnellement les ressources des UNT alors que 61% utilisent des ressources pédagogiques tierces. On constate généralement un manque de visibilité des ressources produites par les universités dans l'espace numérique. Le stage proposé consiste donc à concevoir et expérimenter un protocole de valorisation virale d'une ressource pédagogique numérique, incluant la conception d'une architecture générique de recueil et d'analyse de données statistiques sur l'évolution de la popularité de cette ressource. Des indicateurs de popularité de la ressource seront relevés à intervalles fixes, en exploitant les possibilités des interfaces de programmation des principaux réseaux sociaux (nombre de vues, de commentaires, de "likes", etc.). Des indicateurs qualitatifs seront également attendus, afin de déterminer par exemple les canaux de découverte de la ressource (moteur de recherche, suggestions, abonnements, etc.) ou encore les modalités de réutilisation de cette dernière. Des tableaux de bord interactifs et dynamiques permettront de visualiser ces indicateurs et de repérer les effets de divers stimulis au sein des communautés d’utilisateurs.
AVR
27
14:30
La stéganographie.
Kevin Hoaraum
La stéganographie est une technique de dissimulation de l’information dont les origines remontent à l’Antiquité. A l’opposé de la cryptographie dont le but est de cacher le contenu d’un message, la stéganographie cherche à dissimuler la présence même de ce message. De nos jours, les procédés stéganographique sont largement utilisés, notamment pour l’établissement de canaux cachés. Ces derniers exploitent diverses propriétés logicielles et matérielles des systèmes informatiques pour communiquer de l’information sans éveiller les soupçons. L’objectif de mon stage est de d’évaluer la possibilité d’utiliser les traces de consommation énergétique pour établir un canal caché. Nous souhaitons détecter et discriminer les messages arrivant sur un smartphone par l’analyse de leurs empreintes énergétiques. Par exemple, en prenant un codage binaire ou` l’arrivée d’un SMS est perçue comme ’1’ et celle d’un email comme ’0’, il est possible d’encoder un message secret par l’envoi répété de SMS et d’email. Une application installée sur le smartphone pourra alors recevoir le message secret sans aucune permission de connexion réseau (GSM Wifi, etc.). Le canal caché ainsi établi permettra une communication entre deux entités : une tierce partie distante qui sera l’émetteur du message secret et un smartphone qui en sera le récepteur.
AVR
27
14:00
IPWeb.
Idris Adrien
Mon stage porte sur la mise en place d'IPweb au sein de l'UFR des Sciences. La fonctionnalité IPweb étant déjà présente au sein d'Apogée on se tourne sur les fonctionnalités de gestion des groupes de TD via l'outil IPweb.
AVR
27
13:30
Accompagnement d’un start-up dans sa phase de lancement.
Sébastien Macé
Dans une société hyper-connectée telle que la nôtre, rares sont les idées vraiment innovantes. Zeewa fait le pari de relever ce défi en proposant une application mobile d’un genre nouveau. Offrir à l’utilisateur une expérience où le génie logiciel couplé aux technologies des smartphones apportent des solutions innovantes dans la vie quotidienne. Zeewa se propose de générer des opportunités entre les utilisateurs lorsqu’ils sont à proximité. La programmation d’une application Full Web pour plateforme mobile a été le premier vecteur d’approche de ce stage. Très vite des problématiques telles que : l’administration système, le Maintien en Condition Opérationnelle (MCO), le design applicatif, les bases de données,... ont dû être adressés. Construire une production informatique afin de permettre le déploiement d’une application mobile aura été la finalité de mon stage.
AVR
13
13:30
Centrally-Controlled Mass Data Offloading Using Vehicular Traffic.
With over 300 billion vehicle trips made in the USA and 64 billion in France per year, network operators have the opportunity to utilize the existing road and highway network as an alternative data network to offload large amounts of delay-tolerant traffic. To enable the road network as a large-capacity transmission system, we exploit the existing mobility of vehicles equipped with wireless and storage capacities together with a collection of offloading spots. An offloading spot is a data storage equipment located where vehicles usually park. Data is transloaded from a conventional data network to the closest offloading spot and then shipped by vehicles along their line of travel. The subsequent offloading spots act as data relay boxes where vehicles can drop off data for later pick-ups by other vehicles, depending on their direction of travel. The main challenges of this offloading system are how to compute the road path matching the performance requirements of a data transfer and how to configure the sequence of offloading spots involved in the transfer. We propose a scalable and adaptive centralized architecture built on SDN that maximizes the utilization of the flow of vehicles connecting consecutive offloading spots. We simulate the performance of our system using real roads traffic counts for France. Results show that the centralized controlled offloading architecture can achieve an efficient and fair allocation of concurrent data transfers between major cities in France.
MAR
30
13:30
Simulation multi-agents et calcul haute performance sur carte graphique.
Nombre de systèmes complexes sont aujourd'hui étudiés par simulation grâce à des modèles basés sur le paradigme multi-agents. Dans ces modèles, les individus, leur environnement et leurs interactions sont directement représentés. Ce type de simulation nécessite parfois de considérer un grand nombre d’entités, ce qui pose des problèmes de performance et de passage à l’échelle. Dans ce cadre, la programmation sur carte graphique (GPGPU) est une solution attrayante : elle permet des gains de performances très conséquents sur des ordinateurs personnels. Le GPGPU nécessite cependant une programmation extrêmement spécifique qui limite à la fois son accessibilité et la réutilisation des développements réalisés, ce qui est particulièrement vrai dans le contexte de la simulation multi-agents. Dans cet exposé, nous présenterons cette technologie et les travaux de recherche que nous avons réalisés afin de pallier ces difficultés. Nous décrirons en particulier une méthode de conception, appelée délégation GPU, qui permet :
(1) d'adapter les modèles multi-agents au contexte du GPGPU
et de
(2) faciliter la réutilisation des développements associés.
FEV
23
13:30
Modélisation & Simulation de Systèmes Naturels Anthropisés.
en cours.
FEV
21
17:30
Identité numérique : et après ?.
Depuis la signature du Traité UKUSA, de mystérieux radômes s’installent peu à peu dans les ambassades et bases militaires du monde entier. A l’intérieur de ces immenses balles de golf se cachent de très grandes antennes capables d’intercepter les communications électroniques. Pour reprendre l’intitulé du film d’Oliver Stone sur la vie d’Edward Snowden : « Nous sommes tous sur écoute ».
Au 1er janvier 1983, le germe de ce qui deviendra un autre mystère aux mêmes enjeux voit le jour. Le Réseau des réseaux devient de plus en plus sophistiqué et se répand à une vitesse telle qu’il entraine avec lui une collecte sans précédent de données, notamment personnelles. L’inquiétude se renforce d’autant avec la montée en puissance des géants du web, les BIG EYES. Jusqu’à quel point en savent-ils sur leurs utilisateurs ?
Cette recherche se place à la lisière du droit et de l’informatique. Par une approche opérationnelle du fonctionnement des outils informatiques matériels et logiciels, et sous le regard critique des règles de droit en présence, elle tend à identifier, s’il existe, le phénomène sous-jacent à la collecte de masse de données personnelles et à proposer le cas échéant l’encadrement juridique qui convient.