Programmation Lin Aire Une Approche Math Matique Et Algorithmique

Download Programmation Lin Aire Une Approche Math Matique Et Algorithmique PDF/ePub or read online books in Mobi eBooks. Click Download or Read Online button to get Programmation Lin Aire Une Approche Math Matique Et Algorithmique book now. This website allows unlimited access to, at the time of writing, more than 1.5 million titles, including hundreds of thousands of titles in various foreign languages.
Programmation linéaire - Une approche mathématique et algorithmique

« Cet ouvrage est destiné à un public universitaire de niveau avancé en licence et en master. Les domaines ciblés sont essentiellement : Mathématiques-Informatique, Ingénierie, Économie, Management. Ce livre met l'accent aussi bien sur l'aspect théorique que sur l'algorithmique, ainsi que sur les questions liées à la complexité. Le chapitre 1 introduit ce qu'est un programme linéaire (PL) et quelques faits basiques afférents. L'ensemble de toutes les solutions d'un PL est un polyèdre et le chapitre 2 étudie la géométrie de ce dernier. Le chapitre 3 étudie la théorie fondamentale sous-jacente. Cette théorie permet la conception de l'algorithme du simplexe présenté et analysé sous tous ses aspects (correction, finitude et complexité) au chapitre central numéro 4. En quête de plus d'efficacité, le chapitre 5 propose une méthode dite révisée, qui consiste en une version "implémentable" de l'algorithme du simplexe. Le chapitre 6 étudie la théorie de la dualité pour finir avec un moyen d'obtention d'un certificat d'optimalité en temps polynomial. Enfin, on montre que le problème de la PL est "facile" en proposant une description succincte d'un algorithme polynomial : la méthode des ellipsoïdes. Une annexe est destinée à rappeler quelquesfaits utiles d'algèbre linéaire »--Quatrième de couverture.
Théories et modèles en sciences humaines

Author: Franck Varenne
language: fr
Publisher: Éditions Matériologiques
Release Date: 2018-03-29
Une épistémologie des méthodes scientifiques Face à la diversité et à la complexification des modes de formalisation, une épistémologie des méthodes scientifiques doit confronter directement ses analyses à une pluralité d’études de cas comparatives. C’est l’objectif de cet ouvrage. Aussi, dans une première partie, propose-t-il d’abord une classification large et raisonnée des différentes fonctions de connaissance des théories, des modèles et des simulations (de fait, cette partie constitue un panorama d’épistémologie générale particulièrement poussé). C’est ensuite à la lumière de cette classification que les deux parties centrales analysent et distinguent les assises conceptuelles et épistémologiques des principaux types de formalisation en géographie avant et après l’ordinateur (théories des localisations, modèles gravitaires, loi rang-taille). En employant toujours la même méthode analytique et comparative, la dernière partie se concentre sur l’explication épistémologique des trois révolutions computationnelles récentes : l’analyse des données, la présentation des données et enfin l’analyse par simulation computationnelle. Au travers de cette enquête approfondie, la géographie apparaît non seulement comme une discipline carrefour, ayant pour cela donné des exemples de presque tous les types de modèles scientifiques, mais aussi comme une science innovante en termes épistémologiques. Car ce qui a d’abord été pour elle un frein à la formalisation – sa sensibilité au caractère multifactoriel comme à la dimension irréductiblement spatiale des phénomènes sociaux – et qui l’obligea longtemps à inféoder ses théories et modèles à des disciplines plus aisément formalisables comme la géomorphologie, l’économie, la sociologie, la démographie, ou bien encore la thermodynamique et la théorie des systèmes, devient aujourd’hui un atout dès lors que, parmi les sciences humaines et sociales, elle peut développer une épistémologie non seulement pluraliste mais aussi combinatoire et intégrative. Découvrez cette analyse approfondie d'une discipline spécifique : la géographie EXTRAIT Berry et Garrison pensent dans un premier temps que le modèle théorique probabiliste, même considéré comme le meilleur du point de vue du canon néopositiviste, est insatisfaisant car il n’est pas réellement explicatif. L’essentiel lui échappe. On voit que, dans ce premier passage, Berry et Garrison l’interprètent comme une représentation négative – par défaut – de l’état de nos connaissances sur les liens causaux qui nous importent : nous ne représenterions pas une cause mais une agrégation non contrôlée de causes, causes en nombre possiblement infini et dont la constante présence ni la constance de la nature ne nous sont nullement assurées. À PROPOS DE L'AUTEUR Franck Varenne est maître de conférences en philosophie des sciences à l’Université de Rouen et chercheur au Gemass (UMR 8598 – CNRS/Paris Sorbonne). Ses recherches portent sur l’épistémologie des modèles et des simulations. Il a notamment publié Du modèle à la simulation informatique (Vrin, 2007), Qu’est-ce que l’informatique ? (Vrin, 2009), Formaliser le vivant : lois, théories, modèles ? (Hermann, 2010) et Modéliser le social (Dunod, 2011). Il a également publié dans de nombreuses revues, dont Simulation, Journal of Artificial Societies and Social Simulation, Natures Sciences Sociétés et la Revue d’Histoire des Sciences. Il codirige les collectifs Modéliser & simuler. Épistémologies et pratiques de la modélisation et de la simulation, tome 1 (en 2013) et tome 2 (en 2014) aux Editions Matériologiques.