Optimisation De L Energie Dans Une Architecture Memoire Multi Bancs Pour Des Applications Multi Taches Temps Reel


Download Optimisation De L Energie Dans Une Architecture Memoire Multi Bancs Pour Des Applications Multi Taches Temps Reel PDF/ePub or read online books in Mobi eBooks. Click Download or Read Online button to get Optimisation De L Energie Dans Une Architecture Memoire Multi Bancs Pour Des Applications Multi Taches Temps Reel book now. This website allows unlimited access to, at the time of writing, more than 1.5 million titles, including hundreds of thousands of titles in various foreign languages.

Download

Optimisation de l'énergie dans une architecture mémoire multi-bancs pour des applications multi-tâches temps réel


Optimisation de l'énergie dans une architecture mémoire multi-bancs pour des applications multi-tâches temps réel

Author: Hanene Ben Fradj

language: fr

Publisher:

Release Date: 2006


DOWNLOAD





De nombreuses techniques ont été développées pour réduire la consommation processeur considéré jusqu’à présent comme l’élément le plus gourmand en consommation. Avec l’évolution technologique et l’apparition de nouvelles applications toujours plus volumineuses en nombre de données, la surface de silicium dédiée aux unités de mémorisation ne cesse de croître. Les techniques d’optimisation ciblant uniquement le processeur peuvent alors être remises en cause avec cette nouvelle tendance. Certaines études montrent que la technique du DVS (Dynamic Voltage Scaling), la plus performante dans la réduction de la consommation processeur, augmente la consommation de la mémoire principale. Cette augmentation est la conséquence d’une part d’une co-activation plus longue de la mémoire avec le processeur et d’autre part de l’augmentation du nombre de préemptions par l’allongement des temps d’exécution des tâches. La solution proposée pour diminuer cet impact négatif du DVS sur la consommation mémoire est de diminuer la surface mémoire co-active. Une architecture mémoire multi-bancs, offrant la possibilité d’activer un seul banc à la fois et de mettre les autres bancs dans un mode faible consommation, est adoptée. Rechercher la configuration mémoire (nombre de bancs, taille de chaque banc) ainsi que l’allocation des tâches aux bancs constitue la contribution majeure de ces travaux. La modélisation de l’énergie consommée par une mémoire multi-bancs a permis d’identifier un nombre important de variables ainsi que leurs fortes dépendances. Cette tendance a rendu le problème difficile à résoudre. Une exploration exhaustive est premièrement développée afin d’évaluer l’impact de chaque paramètre sur la consommation totale de la mémoire. Bien que l’approche exhaustive permette de rendre la solution optimale, l’espace d’exploration augmente exponentiellement avec le nombre de tâches. Ce type de résolution reste intéressant s’il s’agit de l’employer hors ligne sur des applications à faible nombre de tâches. Une heuristique capable d’explorer un sous-espace potentiellement intéressant et de résoudre le problème en un temps polynomial a été développée dans un second temps. La complexité réduite de cette heuristique permet de l’employer en ligne pour effectuer des migrations dans le cas de systèmes à nombre de tâches dynamiques. Des expérimentations sur des applications de traitement du signal temps réel et une application multimédia (GSM et MPEG2) montrent des gains intéressants sur la consommation mémoire. La configuration mémoire obtenue par exploration exhaustive ou par la résolution heuristique couplée à un processeur muni d’une technique de DVFS permet d’augmenter le gain énergétique du système total.

Optimisations mémoire dans la méthodologie AAA pour code embarqué sur architecture parallèles


Optimisations mémoire dans la méthodologie AAA pour code embarqué sur architecture parallèles

Author: Mickaël Raulet

language: fr

Publisher:

Release Date: 2006


DOWNLOAD





Dans le domaine de l'électronique embarquée, les applications de communications numériques et de traitement d'images imposent des contraintes de temps très fortes tout en admettant une limitation en ressources et performances des unités de traitement. La restriction quant à la mémoire utilisable peut être préjudiciable pour des domaines tels que le codage vidéo. Une solution pour atteindre les objectifs d'implantation temps-réel peut passer par une distribution sur une architecture matérielle parallèle. Cette problématique constitue le cadre de ces travaux. Plus précisément, il s'agit de développer un processus de prototypage rapide dédié aux architectures parallèles à base de plusieurs processeurs de traitement numérique du signal de dernière génération (FPGA, DSP). L'aspect optimisation du point de vue de la mémoire allouée est abordé ici de manière plus précise.La chaîne de prototypage a été élaborée autour de SynDEx, outil développé à l'INRIA basé sur la méthodologie AAA. Cette dernière vise à améliorer l'implantation d'un algorithme sur une architecture multi-processeurs en déterminant une distribution et ordonnancement optimaux. SynDEx réalise la phase d'adéquation proprement dite, et génère un exécutif indépendant de la cible. Nous avons dans un premier temps contribué à l'automatisation du processus sur cible multi-processeurs, en rajoutant d'une couche fonctionnelle, et en développant de nouveaux noyaux spécifiques pour des processeurs de traitement numérique du signal.Dans un contexte embarqué, nos préoccupations se sont ensuite penchées sur la minimisation de la mémoire pour le code généré. C'est un problème encore très ouvert pour des architectures multi-composants. La solution trouvée, grâce aux algorithmes de coloriage de graphe, aboutit à une amélioration significative des résultats d'implantation distribuée. Le portage vers des plates-formes multi-composants est aujourd'hui automatique, notamment en intégrant directement dans l'outil SynDEx l'optimisation mémoire. Une autre partie importante de ces travaux a concerné le développement et l'intégration, à travers notre processus de prototypage, d'applications conséquentes dans les domaines du traitement des images (MPEG-4, LAR) et celui des télécommunications (MC-CDMA, UMTS). Les résultats obtenus valident l'ensemble du processus proposé, et démontrent son adaptation à des systèmes globalement orientés traitement de l'information. Le mémoire se conclut en ouvrant sur de nouvelles perspectives, en s'intéressant notamment à des systèmes multi-couches réunissant des couches " transport " de télécommunication numériques et des couches " services " de traitement des images.

Gestion hétérogène des données dans les hiérarchies mémoires pour l'optimisation énergétique des architectures multi-coeurs


Gestion hétérogène des données dans les hiérarchies mémoires pour l'optimisation énergétique des architectures multi-coeurs

Author: Gregory Vaumourin

language: fr

Publisher:

Release Date: 2016


DOWNLOAD





Les problématiques de consommation dans la hiérarchie mémoire sont très présentes dans les architectures actuelles que ce soit pour les systèmes embarqués limités par leurs batteries ou pour les supercalculateurs limités par leurs enveloppes thermiques. Introduire une information de classification dans le système mémoire permet une gestion hétérogène, adaptée à chaque type particulier de données. Nous nous sommes intéressé dans cette thèse plus précisément aux données en lecture seule et étudions les possibilités d'une gestion spécifique dans la hiérarchie mémoire à travers un codesign compilation/architecture. Cela permet d'ouvrir de nouveaux potentiels en terme de localité des données, passage à l'échelle des architectures ou design des mémoires. Evaluée par simulation sur une architecture multi-coeurs, la solution mise en oeuvre permet des gains significatifs en terme de réduction de la consommation d'énergie à performance constante.