Dissertations / Theses: 'Analyses d’images' – Grafiati (2024)

  • Bibliography
  • Subscribe
  • News
  • Referencing guides Blog Automated transliteration Relevant bibliographies by topics

Log in

Українська Français Italiano Español Polski Português Deutsch

We are proudly a Ukrainian website. Our country was attacked by Russian Armed Forces on Feb. 24, 2022.
You can support the Ukrainian Army by following the link: https://u24.gov.ua/. Even the smallest donation is hugely appreciated!

Relevant bibliographies by topics / Analyses d’images / Dissertations / Theses

To see the other types of publications on this topic, follow the link: Analyses d’images.

Author: Grafiati

Published: 1 June 2024

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Consult the top 50 dissertations / theses for your research on the topic 'Analyses d’images.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Plougonven, Erwan Patrick Yann. "Lien entre la microstructure des matériaux poreux et leur perméabilité : mise en évidence des paramètres géométriques et topologiques influant sur les propriétés de transport par analyses d’images microtomographiques." Thesis, Bordeaux 1, 2009. http://www.theses.fr/2009BOR13847/document.

Full text

APA, Harvard, Vancouver, ISO, and other styles

Abstract:

Ce travail a pour but de concevoir des outils d'analyse d'image 3D de matériaux poreux, obtenues par microtomographie à rayons X, afin de caractériser géométriquement la structure micronique des pores et de mettre en évidence le lien entre microgéométrie et propriétés de transport macroscopiques. Partant d'une image segmentée, une séquence complète de traitements (filtrage d'artefacts, squelettisation, LPE, etc.) est proposée pour positionner et délimiter les pores. Une comparaison aux techniques existantes est faite, et une méthodologie qualifiant la robustesse des procédures est présentée. Cette décomposition est utilisée, premièrement pour extraire des descripteurs géométriques de la microstructure porale qui sont examinés en rapport avec la perméabilité intrinsèque ; deuxièmement pour aider à la construction d’un réseau de pores permettant d’effectuer des simulations numériques
The objective of this work is to develop 3D image analysis tools to study the micronic pore structure of porous materials, obtained by X-ray microtomography, and study the relation between microgeometry and macroscopic transport properties. From a binarised image of the pore space, a complete sequence of processing (artefact filtration, skeletonisation, watershed, etc. ) is proposed for positioning and delimiting the pores. A comparison with available methods is performed, and a methodology to qualify the robustness of these processes is presented. The decomposition is used, firstly for extracting geometric parameters of the porous microstructure and studying the relation with intrinsic permeability; secondly to produce a simplified pore network on which to perform numerical simulations

2

Robinault, Lionel. "Mosaïque d’images multi résolution et applications." Thesis, Lyon 2, 2009. http://www.theses.fr/2009LYO20039.

Full text

APA, Harvard, Vancouver, ISO, and other styles

Abstract:

Le travail de thèse que nous présentons s’articule autour de l’utilisation de caméras motorisées à trois degrés de liberté, également appelées caméras PTZ. Ces caméras peuvent être pilotées suivant deux angles. L’angle de panorama (θ) permet une rotation autour d’un axe vertical et l’angle de tangage (ϕ) permet une rotation autour d’un axe horizontal. Si, théoriquement, ces caméras permettent donc une vue omnidirectionnelle, elles limitent le plus souvent la rotation suivant l’angle de panorama mais surtout suivant l’angle de tangage. En plus du pilotage des rotations, ces caméras permettent également de contrôler la distance focale permettant ainsi un degré de liberté supplémentaire. Par rapport à d’autres modèles, les caméras PTZ permettent de construire un panorama - représentation étendue d’une scène construite à partir d’une collection d’image - de très grande résolution. La première étape dans la construction d’un panorama est l’acquisition des différentes prises de vue. A cet effet, nous avons réalisé une étude théorique permettant une couverture optimale de la sphère à partir de surfaces rectangulaires en limitant les zones de recouvrement. Cette étude nous permet de calculer une trajectoire optimale de la caméra et de limiter le nombre de prises de vues nécessaires à la représentation de la scène. Nous proposons également différents traitements permettant d’améliorer sensiblement le rendu et de corriger la plupart des défauts liés à l’assemblage d’une collection d’images acquises avec des paramètres de prises de vue différents. Une part importante de notre travail a été consacrée au recalage automatique d’images en temps réel, c’est à dire que chaque étapes est effectuée en moins de 40ms pour permettre le traitement de 25 images par seconde. La technologie que nous avons développée permet d’obtenir un recalage particulièrement précis avec un temps d’exécution de l’ordre de 4ms (AMD1.8MHz). Enfin, nous proposons deux applications de suivi d’objets en mouvement directement issues de nos travaux de recherche. La première associe une caméra PTZ à un miroir sphérique. L’association de ces deux éléments permet de détecter tout objet en mouvement dans la scène puis de se focaliser sur l’un d’eux. Dans le cadre de cette application, nous proposons un algorithme de calibrage automatique de l’ensemble caméra et miroir. La deuxième application n’exploite que la caméra PTZ et permet la segmentation et le suivi des objets dans la scène pendant le mouvement de la caméra. Par rapport aux applications classiques de suivi de cible en mouvement avec une caméra PTZ, notre approche se différencie par le fait que réalisons une segmentation fine des objets permettant leur classification
The thesis considers the of use motorized cameras with 3 degrees of freedom which are commonly called PTZ cameras. The orientation of such cameras is controlled according to two angles: the panorama angle (θ) describes the degree of rotation around on vertical axis and the tilt angle (ϕ) refers to rotation along a meridian line. Theoretically, these cameras can cover an omnidirectional field of vision of 4psr. Generally, the panorama angle and especially the tilt angle are limited for such cameras. In addition to control of the orientation of the camera, it is also possible to control focal distance, thus allowing an additional degree of freedom. Compared to other material, PTZ cameras thus allow one to build a panorama of very high resolution. A panorama is a wide representation of a scene built starting from a collection of images. The first stage in the construction of a panorama is the acquisition of the various images. To this end, we made a theoretical study to determine the optimal paving of the sphere with rectangular surfaces to minimize the number of zones of recovery. This study enables us to calculate an optimal trajectory of the camera and to limit the number of images necessary to the representation of the scene. We also propose various processing techniques which appreciably improve the rendering of the mosaic image and correct the majority of the defaults related to the assembly of a collection of images which were acquired with differing image capture parameters. A significant part of our work was used to the automatic image registration in real time, i.e. lower than 40ms. The technology that we developed makes it possible to obtain a particularly precise image registration with an computation time about 4ms (AMD1.8MHz). Our research leads directly to two proposed applications for the tracking of moving objects. The first involves the use of a PTZ camera and a spherical mirror. The combination of these two elements makes it possible to detect any motion object in the scene and to then to focus itself on one of them. Within the framework of this application, we propose an automatic algorithm of calibration of the system. The second application exploits only PTZ camera and allows the segmentation and the tracking of the objects in the scene during the movement of the camera. Compared to the traditional applications of motion detection with a PTZ camera, our approach is different by the fact that it compute a precise segmentation of the objects allowing their classification

3

Madani, Ikram. "Plasticité du système racinaire du blé en condition de carence en N, P ou K révélée par développement d'une méthodologie de phénotypage intégrant les poils absorbants." Electronic Thesis or Diss., Université de Montpellier (2022-....), 2022. http://www.theses.fr/2022UMONG059.

Full text

APA, Harvard, Vancouver, ISO, and other styles

Abstract:

Une faible disponibilité des macroéléments dans la plupart des sols cultivés limite fortement les rendements des cultures en absence de fertilisation. Une meilleure compréhension de l’adaptation des systèmes racinaires à des sols pauvres en ions nutritifs, et l’exploitation de la diversité génétique existante dans ce domaine, entre espèces et/ou variétés, sont susceptibles de contribuer au développement de nouveaux cultivars et de nouvelles pratiques agronomiques permettant de limiter les intrants de fertilisation chimique coûteux et polluants pour l’environnement. L'architecture du système racinaire et la production des poils absorbants à l'interface racine-sol, sont des déterminants majeurs de la capacité du système racinaire à explorer le sol et prélever les ions nutritifs. A ce jour, aucune méthodologie ne permettait de phénotyper les poils absorbants dans un système racinaire considéré dans sa totalité. Dans le cadre de cette thèse, j’ai développé une méthodologie de phénotypage global, intégratif, des systèmes racinaires, incluant les poils absorbants. Un dispositif original de type rhizobox a été développé, permettant d'acquérir des images à haute résolution, pour lesquelles j'ai mis au point une procédure d'analyse informatisée associant le logiciel libre Ilastik pour la segmentation des images, et les logiciels WinRHIZOTM et ImageJ pour l'analyse de traits globaux caractérisant le développement racinaire. Après validation de la méthodologie, les systèmes racinaires de deux génotypes de blé, un cultivar d’amidonnier (T.t. dicoccum, cv Escandia), ancêtre du blé dur, et une variété de pays de blé dur (T.t. durum, cv Oued Zenati) ont été comparés entre eux et par rapport à leur réponse à une faible disponibilité en phosphate (P), azote (N) ou potassium (K). Chez des plantules âgées de 15 jours (racines de ca. 30 cm de long), les carences en N, P ou K ont affecté différentiellement la croissance des plantes (allocation de la biomasse entre racines et feuilles, et développement préférentiel du système racinaire). Les trois carences se sont révélées entraîner une augmentation de la surface totale du système racinaire, qui s'est elle-même révélée comme résultant principalement d'une augmentation de la surface totale des poils absorbants sur le système racinaire entier (traduisant une augmentation de la densité et/ou longueur des poils sur tout le système). Le taux d'augmentation de la surface totale des poils absorbants était variable entre les deux variétés et selon l’élément limitant, plus fort en condition de carence en N chez l’amidonnier, et de carence en P chez la variété de pays. Toutes les réponses racinaires analysées, incluant ou non les poils absorbants, ont révélé une plus grande plasticité développementale en réponse aux carences nutritives chez la variété ancestrale. Une perspective ouverte par ce travail serait de comparer cette plasticité chez différentes variétés de blé récapitulant la domestication et l'amélioration de cette espèce. En perspective également, je montre que la méthodologie que j'ai développée peut permettre de phénotyper les réponses racinaires à des conditions biotiques (présence de bactéries de type Plant Growth Promoting Rhizobacteria)
Low macroelement availability in most cultivated soils severely limits crop yields in the absence of fertilization. A better understanding of the adaptation of root systems to nutrient-poor soils, and the exploitation of existing genetic diversity in this field, between species and/or varieties, are likely to contribute to the development of new cultivars and new agronomic practices allowing to limit costly and environmentally polluting chemical fertilization inputs. The architecture of the root system and the production of root hairs at the root-soil interface are major determinants of the capacity of the root system to explore the soil and take up nutrient ions. To date, no methodology has been available to phenotype root hairs in a root system considered entirely. In this thesis, I developed a methodology for global, integrative phenotyping of root systems, including root hairs. An original rhizobox-type device was developed, allowing to acquire high resolution images, for which I developed a computerized analysis procedure associating the free software Ilastik for image segmentation, and the softwares WinRHIZOTM and ImageJ for the analysis of global traits characterizing the root development. After validation of the methodology, the root systems of two wheat genotypes, a cultivated emmer wheat cultivar (T.t. dicoccum, cv Escandia), ancestor of durum wheat, and a landrace of durum wheat (T.t. durum, cv Oued Zenati) were compared with each other and with respect to their response to low phosphate (P), nitrogen (N) or potassium (K) availability. In 15-day-old seedlings (roots ca. 30 cm long), N, P or K deficiencies differentially affected plant growth (biomass allocation between roots and leaves, and preferential development of the root system). All three deficiencies were found to result in an increase in the total surface area of the root system, resulting primarily from an increase in the total surface area of root hairs over the entire root system (reflecting an increase in the density and/or length of hairs over the entire system). The rate of increase in total absorptive root hair area was variable between the two varieties and among limiting elements, stronger under N deficiency conditions in the emmer wheat, and P deficiency in the landrace. All the root responses analyzed, including or not the root hairs, revealed a greater developmental plasticity in response to nutrient deficiency in the ancestral variety. A perspective opened by this work would be to compare this plasticity in different wheat varieties recapitulating the domestication and improvement of this species. I also show that the methodology I have developed can be used to phenotype root responses to biotic conditions (presence of Plant Growth Promoting Rhizobacteria)

4

Boucher, Arnaud. "Recalage et analyse d’un couple d’images : application aux mammographies." Thesis, Paris 5, 2013. http://www.theses.fr/2013PA05S001/document.

Full text

APA, Harvard, Vancouver, ISO, and other styles

Abstract:

Dans le monde de la recherche, l’analyse du signal et plus particulièrement d’image, est un domaine très actif, de par la variété des applications existantes, avec des problématiques telles que la compression de données, la vidéo-surveillance ou encore l’analyse d’images médicales pour ne prendre que quelques exemples. Le mémoire s’inscrit dans ce dernier domaine particulièrement actif. Le nombre d’appareils d’acquisition existant ainsi que le nombre de clichés réalisés, entraînent la production d’une masse importante d’informations à traiter par les praticiens. Ces derniers peuvent aujourd’hui être assistés par l’outil informatique. Dans cette thèse, l’objectif est l’élaboration d’un système d’aide au diagnostic, fondé sur l’analyse conjointe, et donc la comparaison d’images médicales. Notre approche permet de détecter des évolutions, ou des tissus aberrants dans un ensemble donné, plutôt que de tenter de caractériser, avec un très fort a priori, le type de tissu cherché.Cette problématique permet d’appréhender un aspect de l’analyse du dossier médical d’un patient effectuée par les experts qui est l’étude d’un dossier à travers le suivi des évolutions. Cette tâche n’est pas aisée à automatiser. L’œil humain effectue quasi-automatiquement des traitements qu’il faut reproduire. Avant de comparer des régions présentes sur deux images, il faut déterminer où se situent ces zones dans les clichés. Toute comparaison automatisée de signaux nécessite une phase de recalage, un alignement des composantes présentes sur les clichés afin qu’elles occupent la même position sur les deux images. Cette opération ne permet pas, dans le cadre d’images médicales, d’obtenir un alignement parfait des tissus en tous points, elle ne peut que minimiser les écarts entre tissus. La projection d’une réalité 3D sur une image 2D entraîne des différences liées à l’orientation de la prise de vue, et ne permet pas d’analyser une paire de clichés par une simple différence entre images. Différentes structurations des clichés ainsi que différents champs de déformation sont ici élaborés afin de recaler les images de manière efficace.Après avoir minimisé les différences entre les positions sur les clichés, l’analyse de l’évolution des tissus n’est pas menée au niveau des pixels, mais à celui des tissus eux-mêmes, comme le ferait un praticien. Afin de traiter les clichés en suivant cette logique, les images numériques sont réinterprétées, non plus en pixels de différentes luminosités, mais en motifs représentatifs de l’ensemble de l’image, permettant une nouvelle décomposition des clichés, une décomposition parcimonieuse. L’atout d’une telle représentation est qu’elle permet de mettre en lumière un autre aspect du signal, et d’analyser sous un angle nouveau, les informations nécessaires à l’aide au diagnostic.Cette thèse a été effectuée au sein du laboratoire LIPADE de l’Université Paris Descartes (équipe SIP, spécialisée en analyse d’images) en collaboration avec la Société Fenics (concepteur de stations d’aide au diagnostic pour l’analyse de mammographies) dans le cadre d’un contrat Cifre
In the scientific world, signal analysis and especially image analysis is a very active area, due to the variety of existing applications, with issues such as file compression, video surveillance or medical image analysis. This last area is particularly active. The number of existing devices and the number of pictures taken, cause the production of a large amount of information to be processed by practitioners. They can now be assisted by computers.In this thesis, the problem addressed is the development of a computer diagnostic aided system based on conjoint analysis, and therefore on the comparison of medical images. This approach allows to look for evolutions or aberrant tissues in a given set, rather than attempting to characterize, with a strong a priori, the type of fabric sought.This problem allows to apprehend an aspect of the analysis of medical file performed by experts which is the study of a case through the comparison of evolutions.This task is not easy to automate. The human eye performs quasi-automatically treatments that we need to replicate.Before comparing some region on the two images, we need to determine where this area is located on both pictures. Any automated comparison of signals requires a registration phase, an alignment of components present on the pictures, so that they occupy the same space on the two images. Although the characteristics of the processed images allow the development of a smart registration, the projection of a 3D reality onto a 2D image causes differences due to the orientation of the tissues observed, and will not allow to analyze a pair of shots with a simple difference between images. Different structuring of the pictures and different deformation fields are developed here to efficiently address the registration problem.After having minimized the differences on the pictures, the analysis of tissues evolution is not performed at pixels level, but the tissues themselves, as will an expert. To process the images in this logic, they will be reinterpreted, not as pixels of different brightness, but as patterns representative of the entire image, enabling a new decomposition of the pictures. The advantage of such a representation is that it allows to highlight another aspect of the signal, and analyze under a new perspective the information necessary to the diagnosis aid.This thesis has been carried out in the LIPADE laboratory of University Paris Descartes (SIP team, specialized in image analysis) and in collaboration with the Society Fenics (designer of diagnosis aid stations in the analysis of mammograms) under a Cifre convention. The convergence of the research fields of those teams led to the development of this document

5

Lelièvre, Stéphanie. "Identification et caractérisation des frayères hivernales en Manche Orientale et la partie sud de la mer du Nord : Identification des oeufs de poissons, cartographie et modélisation des habitats de ponte." Nantes, 2010. http://www.theses.fr/2010NANT2110.

Full text

APA, Harvard, Vancouver, ISO, and other styles

Abstract:

Une meilleure connaissance des frayères des principaux poissons commerciaux de la mer du Nord semble nécessaire pour leur surveillance. La composition et l'abondance des espèces d'oeufs collectés par le CUFES (Continuous Underway Fish Egg Sampler) sont comparées à celle collectées par le VET (Vertical Egg Trawl) permettant de prouver l'efficacité du CUFES en Manche et mer du Nord. L'identification des œufs de poissons principalement basée sur des critères morphologiques n'est pas toujours fiable. En effet, certaines espèces comme la morue (Gadus morhua) et le merlan (Merlangius merlangus) ont la même gamme de taille, ainsi des méthodes altenatives ont été développées. Premièrement, une technique de biologie moléculaire par PCR-RFLP puis un nouveau système d'analyse d'images, le ZooScan ont été développés pour identifier les œufs de poissons. Des cartes annuelles des frayères hivernales ont été réalisées et comparées entre elles afin de déterminer des zones de ponte récurrentes. Les œufs sont généralement bien distribués sur la zone d'étude, à l'exception de la zone Nord-Ouest de la mer du Nord, près des côtes écossaises. Et enfin, l'habitat de ponte des poissons a été modélisé en utilisant les méthodes GLM (Generalised Linear Model) et RQ (Regression Quantile) en fonction des paramètres environnementaux disponibles afin de prédire les frayères. Les résultats de cette étude multidisciplinaire ont permis d'améliorer les connaissances sur les frayères hivernales en Manche Orientale et sud mer du Nord et ont été discutés dans une perspective de protection et de conservation de ces zones
A better knowledge and monitoring of principal commercial fish spawning grounds have become necessary in the North Sea. The efficiency of CUFES was proved by sampling pelagic fish eggs in winter in Eastern Channel and Southern North Sea. Fish egg taxonomic identification based on visual criteria cannot always be carried out effectively. In particular, cod (Gadus morhua), and whiting (Merlangius merlangus) or flounder (Platichthys flesus) and dab (Limanda limanda) have the same range of egg diameter and similar morphologies. Alternative identification methods using molecular techniques were developed to improve the accuracy of egg taxonomic identification. First, PCR-RFLP method, then, in order to accelerate egg identification, the use of a new laboratory imaging system, the ZooScan, able to produce high resolution images of zooplankton samples, was adapted to fish eggs and allower their automated identification using supervised learning algorithms. The location of winter spawning grounds of fishes in the Southern North Sea and the Eastern Channel was illustrated using yearly maps and analysed over the available period to define recurrent, occasional and unfavorable spawning areas. Generally, fish eggs were found over the study area, except for the North Western of the North Sea, near Scottish coasts. Important spawning areas were clearly localised along the Belgian, Dutch and Danish coasts. Habitat modelling of these fish spawning areas was carried out using both GLM (Generalised Linear Model) and QR (Regression Quantile) and associated egg abundance to physical conditions such as temperature, salinity, bedstress, chlorophyll a concentration and bottom sediment types to characterize spawning habitat conditions and predict their extent and location. The results of this approach improve the understanding of spawning grounds distribution and were discussed in the context of the protection and conservation of critical spawning grounds

6

PORTES, DE ALBUQUERQUE MARCelO. "Analyse par traitement d’images de domaines magnétiques." Grenoble INPG, 1995. http://www.theses.fr/1995INPG0036.

Full text

APA, Harvard, Vancouver, ISO, and other styles

Abstract:

La physique de domaines magnetiques fait beaucoup appel aux methodes d'observations. Le traitement d'images joue un role important dans l'analyse quantitative et dans l'interpretation de ces organisations spatiales. Dans cette these on s'interesse a trois systemes magnetiques differents: les structures cellulaires, les modulations d'epaisseurs dans un film de ferrofluide, et les multiples etats de reseaux d'aiguilles aimantees. Ces structures ont en commun la presence d'interactions dipolaires qui conduisent a l'existence d'etats metastables et a des phenomenes d'hysteresis

7

Boucher, Arnaud. "Recalage et analyse d’un couple d’images : application aux mammographies." Electronic Thesis or Diss., Paris 5, 2013. http://www.theses.fr/2013PA05S001.

Full text

APA, Harvard, Vancouver, ISO, and other styles

Abstract:

Dans le monde de la recherche, l’analyse du signal et plus particulièrement d’image, est un domaine très actif, de par la variété des applications existantes, avec des problématiques telles que la compression de données, la vidéo-surveillance ou encore l’analyse d’images médicales pour ne prendre que quelques exemples. Le mémoire s’inscrit dans ce dernier domaine particulièrement actif. Le nombre d’appareils d’acquisition existant ainsi que le nombre de clichés réalisés, entraînent la production d’une masse importante d’informations à traiter par les praticiens. Ces derniers peuvent aujourd’hui être assistés par l’outil informatique. Dans cette thèse, l’objectif est l’élaboration d’un système d’aide au diagnostic, fondé sur l’analyse conjointe, et donc la comparaison d’images médicales. Notre approche permet de détecter des évolutions, ou des tissus aberrants dans un ensemble donné, plutôt que de tenter de caractériser, avec un très fort a priori, le type de tissu cherché.Cette problématique permet d’appréhender un aspect de l’analyse du dossier médical d’un patient effectuée par les experts qui est l’étude d’un dossier à travers le suivi des évolutions. Cette tâche n’est pas aisée à automatiser. L’œil humain effectue quasi-automatiquement des traitements qu’il faut reproduire. Avant de comparer des régions présentes sur deux images, il faut déterminer où se situent ces zones dans les clichés. Toute comparaison automatisée de signaux nécessite une phase de recalage, un alignement des composantes présentes sur les clichés afin qu’elles occupent la même position sur les deux images. Cette opération ne permet pas, dans le cadre d’images médicales, d’obtenir un alignement parfait des tissus en tous points, elle ne peut que minimiser les écarts entre tissus. La projection d’une réalité 3D sur une image 2D entraîne des différences liées à l’orientation de la prise de vue, et ne permet pas d’analyser une paire de clichés par une simple différence entre images. Différentes structurations des clichés ainsi que différents champs de déformation sont ici élaborés afin de recaler les images de manière efficace.Après avoir minimisé les différences entre les positions sur les clichés, l’analyse de l’évolution des tissus n’est pas menée au niveau des pixels, mais à celui des tissus eux-mêmes, comme le ferait un praticien. Afin de traiter les clichés en suivant cette logique, les images numériques sont réinterprétées, non plus en pixels de différentes luminosités, mais en motifs représentatifs de l’ensemble de l’image, permettant une nouvelle décomposition des clichés, une décomposition parcimonieuse. L’atout d’une telle représentation est qu’elle permet de mettre en lumière un autre aspect du signal, et d’analyser sous un angle nouveau, les informations nécessaires à l’aide au diagnostic.Cette thèse a été effectuée au sein du laboratoire LIPADE de l’Université Paris Descartes (équipe SIP, spécialisée en analyse d’images) en collaboration avec la Société Fenics (concepteur de stations d’aide au diagnostic pour l’analyse de mammographies) dans le cadre d’un contrat Cifre
In the scientific world, signal analysis and especially image analysis is a very active area, due to the variety of existing applications, with issues such as file compression, video surveillance or medical image analysis. This last area is particularly active. The number of existing devices and the number of pictures taken, cause the production of a large amount of information to be processed by practitioners. They can now be assisted by computers.In this thesis, the problem addressed is the development of a computer diagnostic aided system based on conjoint analysis, and therefore on the comparison of medical images. This approach allows to look for evolutions or aberrant tissues in a given set, rather than attempting to characterize, with a strong a priori, the type of fabric sought.This problem allows to apprehend an aspect of the analysis of medical file performed by experts which is the study of a case through the comparison of evolutions.This task is not easy to automate. The human eye performs quasi-automatically treatments that we need to replicate.Before comparing some region on the two images, we need to determine where this area is located on both pictures. Any automated comparison of signals requires a registration phase, an alignment of components present on the pictures, so that they occupy the same space on the two images. Although the characteristics of the processed images allow the development of a smart registration, the projection of a 3D reality onto a 2D image causes differences due to the orientation of the tissues observed, and will not allow to analyze a pair of shots with a simple difference between images. Different structuring of the pictures and different deformation fields are developed here to efficiently address the registration problem.After having minimized the differences on the pictures, the analysis of tissues evolution is not performed at pixels level, but the tissues themselves, as will an expert. To process the images in this logic, they will be reinterpreted, not as pixels of different brightness, but as patterns representative of the entire image, enabling a new decomposition of the pictures. The advantage of such a representation is that it allows to highlight another aspect of the signal, and analyze under a new perspective the information necessary to the diagnosis aid.This thesis has been carried out in the LIPADE laboratory of University Paris Descartes (SIP team, specialized in image analysis) and in collaboration with the Society Fenics (designer of diagnosis aid stations in the analysis of mammograms) under a Cifre convention. The convergence of the research fields of those teams led to the development of this document

8

Wang, Long. "Etude de l’influence de la microstructure sur les mécanismes d’endommagement dans des alliages Al-Si de fonderie par des analyses in-situ 2D et 3D." Thesis, Ecole centrale de Lille, 2015. http://www.theses.fr/2015ECLI0004/document.

Full text

APA, Harvard, Vancouver, ISO, and other styles

Abstract:

Un protocole expérimental a été développé dans cette thèse pour étudier l'influence de la microstructure héritée du procédé de fonderie dit Procédé à Modèle Perdu sur le comportement en fatigue oligocyclique des alliages Al-Si à température ambiante. Dans un premier temps, la microstructure des alliages étudiés a été caractérisée à la fois en 2D et en 3D. Les éprouvettes les plus appropriées et les plus représentatives et les régions d’intérêt où le suivi in-situ est réalisé (ROIs) ont été sélectionnées par une caractérisation préliminaire en tomographie aux rayons X. Cette caractérisation 3D est également nécessaire pour comprendre les mécanismes d’endommagement après rupture de l’éprouvette. Les observations in-situ réalisées en surface en utilisant un microscope longue distance (Questar) et en volume avec la tomographie aux rayons X permettent de suivre l’amorçage et la propagation des fissures et ainsi d'identifier la relation entre les mécanismes d’endommagement et les microstructures moulées. Les champs de déplacement et de déformation en 2D/3D mesurés à l'aide de la Corrélation d'Images Numériques et la Corrélation d’Images Volumiques permettent d'analyser la relation entre les champs mesurés et les mécanismes d'endommagement. L'analyse post-mortem et la simulation éléments finis ont permis de compléter l’analyse des mécanismes d’endommagement. Les grands pores favorisent l'amorçage de fissures car ils augmentent fortement le niveau de contrainte locale. Les inclusions dures (phase Si, intermétalliques au fer et phases au cuivre) jouent un rôle important dans l’amorçage et la propagation des fissures en raison des localisations de déformation sur ces inclusions
An experimental protocol was developed in this thesis in order to study the influence of casting microstructure on the fatigue behavior in Lost Foam Casting Al-Si alloys in tension and in Low Cycle Fatigue at room temperature. First of all, the microstructures of studied alloys were thoroughly characterized both in 2D and in 3D. The most suitable and representative specimens and Region of Interest (ROIs) where the in-situ monitoring was performed were selected through a preliminary characterization using X-ray tomography, which is also necessary to understand damage mechanisms after failure. In-situ observations performed on surface using Questar long distance microscope and in volume using X-ray tomography allow following cracks initiations and their propagations and thus allow identifying the relation between damage mechanisms and casting microstructure. 2D/3D displacement and strain fields measured using Digital Image Correlation and Digital Volume Correlation allows analyzing the relation between measured fields and damage mechanisms. Postmortem analysis and FEM simulation gave more information for the damage mechanisms. Large pores favor crack initiation as they strongly increase local stress level. Hard inclusions (Si phase, iron intermetallics and copper containing phases) also play an important role in crack initiation and propagation due to strain localizations at these inclusions

9

Petit, Cécile. "Analyse d’images macroscopiques appliquée à l’injection directe Diesel." Saint-Etienne, 2006. http://www.theses.fr/2006STET4005.

Full text

APA, Harvard, Vancouver, ISO, and other styles

Abstract:

Les normes anti–pollution obligent l’industrie automobile à améliorer la combustion. L’injection directe Diesel, avec l’atomisation du carburant le permet : elle pilote la qualité du mélange air-essence. Le spray Diesel macroscopique est étudié par analyse d’images. D’abord un point de référence de l’image est calculé : le centre d’injection virtuel CIV, issu des axes primaires d’inertie des jets allongés et d’un diagramme de Voronoï. Puis, ces jets sont analysés en calculant leur pénétration, angle et barycentre. Ensuite, la droite issue de la frontière du jet, contraint à passer par le CIV est évaluée. Cet axe est la référence pour l’étude de la symétrie interne, établie en terme de corrélation et de distances: absolue, Euclidienne, infinie, logarithmique utilisant le modèle Logarithmic Image Processing. Cette dernière distance permet de comparer des sprays acquis dans des conditions variées (source lumineuse, milieu ambiant), c’est la symétrie interne du cœur liquide continu. Puis la droite issue des niveaux de gris du jet, astreint de passer par le CIV, avec comme poids la distance au CIV est calculé. Cet axe est la base de l’étude de la symétrie externe, évaluée avec la corrélation et les distances: absolue, Euclidienne, infinie et de Hausdorff. Enfin, une seule grandeur par image de spray est obtenue grâce à la distance de Asplünd, aux circularités ou au barycentre. Puis, l’étude des populations des pénétrations et angles montre leur corrélation, variation pièce à pièce et jet à jet, distributions non Gaussiennes. Ensuite, des injecteurs sont confrontés grâce aux paramètres d’analyse d’image. Enfin l’examen des tendances de ces données montre leur nature prometteuse
Due to emission standards, car manufacturers have to improve combustion. It can be achieved studying Diesel direct injection, particularly fuel atomization as this one is responsible for the mixture quality. The Diesel macroscopic spray is investigated using image processing. An image reference point is first calculated: the virtual spray origin VSO, deduced from the elongated spray plumes primary inertia axes and from a Voronoï diagram. These plumes are analyzed calculating their penetration, angle and barycenter. Afterwards, the line deduced from the spray plume boundary, passing by the virtual injection center, is evaluated. This axis is the reference for the internal symmetry, set in terms of correlation, distances: absolute, Euclidian, infinite and logarithmic which is based on the Logarithmic Image Processing model. This last distance enables to compare sprays acquired in different conditions (light source, ambient medium), it is the liquid continuous core internal symmetry. Then the line deduced from the plume grey levels, forced to pass by the VSO, with the distance to the VSO as additional weight, is calculated. This axis is the basis of the external symmetry, established in terms of correlation, distances: absolute, Euclidian, infinite and Hausdorff. Finally, a spray image can be evaluated using one parameter as the Asplünd distance, circularities, or barycenter. Then penetration and angle populations study show their correlation, variation part to part and plume to plume, non Gaussian distributions. Afterwards, injectors are compared using the image processing parameters. Finally, the data tendencies study show how promising the image processing parameters are

10

Journet, Nicholas. "Analyse d’images de documents anciens : une approche texture." La Rochelle, 2006. http://www.theses.fr/2006LAROS178.

Full text

APA, Harvard, Vancouver, ISO, and other styles

Abstract:

Mes travaux de thèse sont liés à la problématique de l'indexation de grosses quantités d'images de documents anciens. Ils visent à traiter un corpus de documents dont le contenu (texte et image) ainsi que la mise en page se trouvent être fortement variables (l'ensemble des ouvrages d'une bibliothèque par exemple). Ainsi, il n'est donc pas envisageable de travailler sur ce corpus tel qu'on le fait habituellement avec les documents contemporains. En effet, les premiers tests que nous avons effectués sur le corpus du Centre d'Etudes Supérieures de la Renaissance de Tours, avec qui nous travaillons, ont confirmé que les approches classiques (guidée par le modèle) sont peu efficaces car il est impossible d'émettre des hypothèses sur la structure physique ou logique des documents traités. . Nous avons également constaté le manque d'outils permettant l'indexation de grandes bases d'images de documents anciens Face à ce double constat, ces travaux de thèse nous ont amené à proposer une méthode de caractérisation du contenu d'images de documents anciens. Cette caractérisation est réalisée à l'aide d'une étude multirésolution des textures contenues dans les images de document. Ainsi, en extrayant des signatures liées aux fréquences et aux orientations des différentes parties d'une page, il est possible d'extraire, de comparer ou encore d'identifier des éléments de haut niveau sémantique (lettrines, illustrations, texte, mise en page. . . ) sans émettre d'hypothèses sur la structure physique ou logique des documents analysés. Ces indices textures ont permis la création d'outils d'aide à l'indexation de grosses bases d'images de documents anciens
My phd thesis subject is related to the topic of old documents images indexation. The corpus of old documents has specific characteristics. The content (text and image) as well as the layout information are strongly variable. Thus, it is not possible to work on this corpus such as it usually done with contemporary documents. Indeed, the first tests which we realised on the corpus of the “Centre d’Etude de la Renaissance”, with which we work, confirmed that the traditional approaches (driven –model approaches) are not very efficient because it’s impossible to put assumptions on the physical or logical structure of the old documents. We also noted the lack of tools allowing the indexing of large old documents images databases. In this phd work, we propose a new generic method which permits characterization of the contents of old documents images. This characterization is carried out using a multirésolution study of the textures contained in the images of documents. By constructing signatures related with the frequencies and the orientations of the various parts of a page it is possible to extract, compare or to identify different kind of semantic elements (reference letters, illustrations, text, layout. . . ) without making any assumptions about the physical or logical structure of the analyzed documents. These textures information are at the origin of creation of indexing tools for large databases of old documents images

11

Margeta, Ján. "Apprentissage automatique pour simplifier l’utilisation de banques d’images cardiaques." Thesis, Paris, ENMP, 2015. http://www.theses.fr/2015ENMP0055/document.

Full text

APA, Harvard, Vancouver, ISO, and other styles

Abstract:

L'explosion récente de données d'imagerie cardiaque a été phénoménale. L'utilisation intelligente des grandes bases de données annotées pourrait constituer une aide précieuse au diagnostic et à la planification de thérapie. En plus des défis inhérents à la grande taille de ces banques de données, elles sont difficilement utilisables en l'état. Les données ne sont pas structurées, le contenu des images est variable et mal indexé, et les métadonnées ne sont pas standardisées. L'objectif de cette thèse est donc le traitement, l'analyse et l'interprétation automatique de ces bases de données afin de faciliter leur utilisation par les spécialistes de cardiologie. Dans ce but, la thèse explore les outils d'apprentissage automatique supervisé, ce qui aide à exploiter ces grandes quantités d'images cardiaques et trouver de meilleures représentations. Tout d'abord, la visualisation et l'interprétation d'images est améliorée en développant une méthode de reconnaissance automatique des plans d'acquisition couramment utilisés en imagerie cardiaque. La méthode se base sur l'apprentissage par forêts aléatoires et par réseaux de neurones à convolution, en utilisant des larges banques d'images, où des types de vues cardiaques sont préalablement établies. La thèse s'attache dans un deuxième temps au traitement automatique des images cardiaques, avec en perspective l'extraction d'indices cliniques pertinents. La segmentation des structures cardiaques est une étape clé de ce processus. A cet effet une méthode basée sur les forêts aléatoires qui exploite des attributs spatio-temporels originaux pour la segmentation automatique dans des images 3Det 3D+t est proposée. En troisième partie, l'apprentissage supervisé de sémantique cardiaque est enrichi grâce à une méthode de collecte en ligne d'annotations d'usagers. Enfin, la dernière partie utilise l'apprentissage automatique basé sur les forêts aléatoires pour cartographier des banques d'images cardiaques, tout en établissant les notions de distance et de voisinage d'images. Une application est proposée afin de retrouver dans une banque de données, les images les plus similaires à celle d'un nouveau patient
The recent growth of data in cardiac databases has been phenomenal. Cleveruse of these databases could help find supporting evidence for better diagnosis and treatment planning. In addition to the challenges inherent to the large quantity of data, the databases are difficult to use in their current state. Data coming from multiple sources are often unstructured, the image content is variable and the metadata are not standardised. The objective of this thesis is therefore to simplify the use of large databases for cardiology specialists withautomated image processing, analysis and interpretation tools. The proposed tools are largely based on supervised machine learning techniques, i.e. algorithms which can learn from large quantities of cardiac images with groundtruth annotations and which automatically find the best representations. First, the inconsistent metadata are cleaned, interpretation and visualisation of images is improved by automatically recognising commonly used cardiac magnetic resonance imaging views from image content. The method is based on decision forests and convolutional neural networks trained on a large image dataset. Second, the thesis explores ways to use machine learning for extraction of relevant clinical measures (e.g. volumes and masses) from3D and 3D+t cardiac images. New spatio-temporal image features are designed andclassification forests are trained to learn how to automatically segment the main cardiac structures (left ventricle and left atrium) from voxel-wise label maps. Third, a web interface is designed to collect pairwise image comparisons and to learn how to describe the hearts with semantic attributes (e.g. dilation, kineticity). In the last part of the thesis, a forest-based machinelearning technique is used to map cardiac images to establish distances and neighborhoods between images. One application is retrieval of the most similar images

12

Farage, Grégory. "Filtrage multiéchelle et turbo filtrage d’images polarimétriques." Thèse, Université de Sherbrooke, 2015. http://hdl.handle.net/11143/6748.

Full text

APA, Harvard, Vancouver, ISO, and other styles

Abstract:

À cause de la nature cohérente du signal radar à synthèse d’ouverture (RSO), les données RSO polarimétriques (PolRSO) sont contaminées par du chatoiement. Le chatoiement affecte non seulement l’intensité des images sur les canaux HH, VV et HV, mais aussi la structure de corrélation (e.g. le produit complexe de la matrice de covariance). Une réduction du chatoiement améliore l’estimation de l’information polarimétrique, et par conséquent la discrimination de scènes ciblées, la segmentation d’images, la classification ainsi que la détection des contours. Mais, puisque l’information polarimétrique doit être préservée et les produits hermitiens de la matrice de covariance ajoutent de nouveaux termes à traiter, le filtrage du bruit de chatoiement est plus difficile à implémenter dans un système PolRSO que dans un système RSO. De plus, il est important d’éviter d’introduire de la diaphonie et de corrompre l’information polarimétrique des images. Le but de cette thèse est l’exploration du filtrage multiéchelle des images PolRSO.L’analyse multiéchelle basée sur la théorie des ondelettes est un outil d’analyse moderne dans de nombreux domaines de recherche technique comme la biologie, la médecine, l’informatique ou bien encore la télédétection. Les ondelettes ont montré avec succès leurs résultats dans le domaine du traitement d’images; dans le cadre du débruitage, la réussite de leurs techniques repose sur la capacité des transformées en ondelettes à séparer le bruit du signal utile. Dû à des contraintes physiques liées au débruitage du chatoiement des images PolRSO, il existe un compromis entre la préservation de la résolution spatiale et radiométrique. Le filtre amélioré de Lee est un exemple de filtres capables d’adapter la taille ou la forme de leur fenêtre de filtrage par rapport aux caractéristiques structurales de l’image, afin de trouver un bon compromis entre la conservation de la résolution spatiale et radiométrique de l’image débruitée. L’analyse multirésolution par ondelettes représente une approche très appropriée à ce type de contraintes grâce à ses propriétés de la localisation spatiale et fréquentielle des structures de l’image.Nous proposons dans cette thèse une nouvelle méthode filtrage multiéchelle des images PolRSO qui repose sur un algorithme d’identification des coefficients d’ondelettes significatifs (i.e. qui contient de l’information de structures). Nous appliquons une transformée en ondelettes à chaque élément de la matrice de covariance et utilisons toute son information polarimétrique pour filtrer les coefficients des ondelettes. Nous montrons que l’identification de l’information structurale dans domaine des ondelettes est améliorée en utilisant le logarithme des images PolRSO. Dans le but de soutirer l’information de structure qui existe dans toutes les bandes de la matrice de covariance polarimétrique, trois procédés sont suggérés : l’Analyse en Composantes Principales (ACP), la somme des carrés des coefficients et la somme des produits interbandes. Le seuillage des coefficients d’ondelettes est basé sur une technique de seuillage entropique 2D, qui permet d’obtenir un seuil dynamique lié directement au contenu de l’image.D’autre part, nous proposons aussi un turbo filtre polarimétrique basé sur le principe turbo itératif et notre filtre polarimétrique multiéchelle. Le concept du principe turbo itératif consiste à créer un système composé de deux filtres différents et de communiquer une information filtrée d’une sortie d’un filtre à l’entrée de l’autre filtre, puis de réitérer le processus jusqu’à ce qu’ils convergent vers un résultat plus fiable. L’algorithme turbo itératif appliqué aux images RSO a montré de très bonnes performances grâce à la propagation de l’information entre deux filtres; ce qui nous encourage à développer une méthode adaptée aux images PolRSO. Nous avons testé les performances de nos filtres sur des images PolSAR simulées, et sur des images PolRSO réelles; les résultats du filtre multiéchelle PolRSO se sont avérés supérieurs à ceux obtenus avec d’autres filtres, et le turbo filtre PolRSO a montré sa compétence à améliorer les résultats des filtres complémentaires au filtre basé sur une approche multiéchelle.

13

Huck, Alexis. "Analyse non-supervisée d’images hyperspectrales : démixage linéaire et détection d’anomalies." Aix-Marseille 3, 2009. http://www.theses.fr/2009AIX30036.

Full text

APA, Harvard, Vancouver, ISO, and other styles

Abstract:

Cette thèse explore deux axes de recherche pour l'analyse non-supervisée d'Images HyperSpectrales (HSIs). Sous l'hypothèse du modèle de mélange linéaire de spectres, nous abordons d'abord la problématique du démixage par Factorisation en Matrices Non-négatives (NMF). D'une part, nous proposons de régulariser le problème en intégrant de l'information a priori spectrale et spatiale judicieuse, spécifique aux HSIs. D'autre part, nous proposons un estimateur du pas optimal pour la descente de gradient projeté. Nous montrons ainsi que, correctement régularisée, la NMF est un outil pertinent pour le démixage d'HSIs. Puis, nous explorons la problématique de la détection d'anomalies. Nous proposons un algorithme de Poursuite de Composantes Anormales (PCA), basé simultanément sur la poursuite de projections et sur un modèle probabiliste avec test d'hypothèses. Ainsi, la PCA détecte les anomalies à taux de fausse alarme constant et les discrimine en classes spectralement hom*ogènes
This thesis focusses on two research fields regarding unsupervised analysis of hyperspectral images (HSIs). Under the assumptions of the linear spectral mixing model, the formalism of Non-Negative Matrix Factorization is investigated for unmixing purposes. We propose judicious spectral and spatial a priori knowledge to regularize the problem. In addition, we propose an estimator for the projected gradient optimal step-size. Thus, suitably regularized NMF is shown to be a relevant approach to unmix HSIs. Then, the problem of anomaly detection is considered. We propose an algorithm for Anomalous Component Pursuit (ACP), simultaneously based on projection pursuit and on a probabilistic model and hypothesis testing. ACP detects the anomalies with a constant false alarm rate and discriminates them into spectrally hom*ogeneous classes

14

Debroutelle, Teddy. "Détection et classification de décors gravés sur des céramiques anciennes par analyse d’images." Thesis, Orléans, 2018. http://www.theses.fr/2018ORLE2015/document.

Full text

APA, Harvard, Vancouver, ISO, and other styles

Abstract:

Le projet ARCADIA vise à développer une méthode automatique d’analyse des décors sur des tessons de céramique réalisés à la molette pour faciliter l’interprétation de ce patrimoine archéologique. Cette automatisation doit remplacer la procédure manuelle effectuée par l’archéologue, devenue trop fastidieuse avec l’augmentation du corpus (38000 tessons). L’objectif in fine est de réussir à associer automatiquement les décors à la molette du potier qui les a créés. Dans ce contexte, nous avons développé une chaine complète depuis la numérisation des tessons jusqu’à la classification automatique des décors selon leur style de motifs(carré, losange, chevrons, oves, etc). Les travaux présentés proposent plusieurs contributions mettant en oeuvre des méthodes d’analyse d’images et d’apprentissage automatique. A partir du nuage de points 3D, une carte des profondeurs est obtenue. Une méthode originale de détection automatique de la région saillante focalisée sur le décor est proposée. Ensuite les décors sont caractérisés pour effectuer leur classification. Un nouveau descripteur, appelé Blob-SIFT, est proposé pour collecter les signatures seulement dans les zones pertinentes du décor. Cette approche adaptée à chaque décor, permet à la fois de réduire considérablement la masse de données et d’améliorer les performances de classification. Nous proposons également une approche apprentissage profond, puis, une approche hybride combinant les vecteurs de caractéristiques locales extraites par Blob-SIFT et la caractérisation globale du décor fournie par l’apprentissage profond qui améliore encore les performances de classification
The ARCADIA project aims to develop an automatic method for analyzing engraved decorations on ceramic sherds to facilitate the interpretation of this archaeological heritage. It is to replace the manual and tedious procedure carried out by the archaeologist since the corpus increased to more 38000 sherds. The ultimate goal is to grouping all the decorations created with the same wheel by a poter. We developped a complete chain from the 3Dscanning of the sherd to the automatic classification of the decorations according to their style (diamonds, square, chevrons, oves, etc). In this context, several contributions are proposed implementing methods of image analysis and machine learning. From the 3Dpoint cloud, a depth map is extracted and an original method is applied to automatically detect the salient region centered onto the decoration. Then, a new descriptor, called Blob-SIFT, is proposed to collect signatures only in the relevant areas and characterize the decoration to perform the classification. This approach adapted to each sherd, allows both to reduce significantly the mass of data and improve classification rates. We also use deep learning, and propose an hybrid approach combining local features extracted by Blob-SIFT with global features provided by deep learning to increase the classification performance

15

Guénard, Jérôme. "Synthèse de modèles de plantes et reconstructions de baies à partir d’images." Thesis, Toulouse, INPT, 2013. http://www.theses.fr/2013INPT0101/document.

Full text

APA, Harvard, Vancouver, ISO, and other styles

Abstract:

Les plantes sont des éléments essentiels du monde qui nous entoure. Ainsi, si l’on veut créer des environnements virtuels qui soient à la fois agréables et réalistes, un effort doit être fait pour modéliser les plantes. Malgré les immenses progrès en vision par ordinateur pour reconstruire des objets de plus en plus compliqués, les plantes restent difficiles à reconstruire à cause de la complexité de leur topologie. Cette thèse se divise en deux grandes parties. La première partie s’intéresse à la modélisation de plantes, biologiquement réalistes, à partir d’une seule image. Nous générons un modèle de plante respectant les contraintes biologiques de son espèce et tel que sa projection soit la plus fidèle possible à l’image. La première étape consiste à extraire de l’image le squelette de la plante. Dans la plupart de nos images, aucune branche n’est visible et les images peuvent être de qualité moyenne. Notre première contribution consiste en une méthode de squelettisation basée sur les champs de vecteurs. Le squelette est extrait suite à un partitionnement non déterministe du feuillage de l’image assurant son réalisme. Dans un deuxième temps, la plante est modélisée en 3D. Notre deuxième contribution est la création de modèles pour différents types de plantes, basée sur les L-systèmes. Puis, un processus d’analyse-par-synthèse permet de choisir le modèle 3D final : plusieurs propositions de squelette sont générées et un processus bayésien permet d’extraire le modèle maximisant le critère a posteriori. Le terme d’attache aux données (vraisemblance) mesure la similarité entre l’image et la reprojection du modèle, la probabilité a priori mesure le réalisme du modèle. Après avoir généré des modèles de plantes, des modèles de fruits doivent être créés. Ayant travaillé principalement sur les pieds de vigne, nous avons développé une méthode pour reconstruire une grappe de raisin à partir d’au moins deux vues. Chaque baie est assimilée à un ellipsoïde de révolution. La méthode obtenue peut être plus généralement adaptée à tout type de fruits assimilables à une quadrique de révolution. La seconde partie de cette thèse s’intéresse à la reconstruction de quadriques de révolution à partir d’une ou plusieurs vues. La reconstruction de quadriques et, en général, la reconstruction de surfaces 3D est un problème très ancien en vision par ordinateur qui a donné lieu à de nombreux travaux. Nous rappelons les notions nécessaires de géométrie projective des quadriques, et de vision par ordinateur puis, nous présentons un état de l’art sur les méthodes existantes sur la reconstruction de surfaces quadratiques. Nous détaillons un premier algorithme permettant de retrouver les images des foyers principaux d’une quadrique de révolution à partir d’une vue « calibrée », c’est-à-dire pour laquelle les paramètres intrinsèques de la caméra sont connus. Puis, nous détaillons comment utiliser ce résultat pour reconstruire, à partir d’un schéma de triangulation linéaire, tout type de quadriques de révolution à partir d’au moins deux vues. Enfin, nous montrons comment il est possible de retrouver la pose 3D d’une quadrique de révolution dont on connaît les paramètres à partir d’un seul contour occultant. Nous évaluons les performances de nos méthodes et montrons quelques applications possibles
Plants are essential elements of our world. Thus, 3D plant models are necessary to create realistic virtual environments. Mature computer vision techniques allow the reconstruction of 3D objects from images. However, due to the complexity of the topology of plants, dedicated methods for generating 3D plant models must be devised. This thesis is divided into two parts. The first part focuses on the modeling of biologically realistic plants from a single image. We propose to generate a 3D model of a plant, using an analysis-by-synthesis method considering both a priori information of the plant species and a single image. First, a dedicated 2D skeletonisation algorithm generates possible branching structures from the foliage segmentation. Then, we built a 3D generative model based on a parametric model of branching systems taking into account botanical knowledge. The resulting skeleton follows the hierarchical organisation of natural branching structures. Varying parameter values of the generative model (main branching structure of the plant and foliage), we produce a series of candidate models. A Bayesian model optimizes a posterior criterion which is composed of a likelihood function which measures the similarity between the image and the reprojected 3D model and a prior probability measuring the realism of the model. After modeling plant models branching systems and foliage, we propose to model the fruits. As we mainly worked on vines, we propose a method for reconstructing a vine grape from at least two views. Each bay is considered to be an ellipsoid of revolution. The resulting method can be adapted to any type of fruits with a shape similar to a quadric of revolution. The second part of this thesis focuses on the reconstruction of quadrics of revolution from one or several views. Reconstruction of quadrics, and in general, 3D surface reconstruction is a very classical problem in computer vision. First, we recall the necessary background in projective geometry quadrics and computer vision and present existing methods for the reconstruction of quadrics or more generally quadratic surfaces. A first algorithm identifies the images of the principal foci of a quadric of revolution from a "calibrated" view (that is, the intrinsic parameters of the camera are given). Then we show how to use this result to reconstruct, from a linear triangulation scheme, any type of quadrics of revolution from at least two views. Finally, we show that we can derive the 3D pose of a given quadric of revolution from a single occluding contour. We evaluate the performance of our methods and show some possible applications

16

Ruggieri, Vito Giovanni. "Analyse morphologique des bioprothèses valvulaires aortiques dégénérées par segmentation d’images TDM." Rennes 1, 2012. https://ecm.univ-rennes1.fr/nuxeo/site/esupversions/2be5652f-691e-4682-a0a0-e8db55bb95d9.

Full text

APA, Harvard, Vancouver, ISO, and other styles

Abstract:

Le but de cette étude est d’évaluer la faisabilité de l’analyse tomodensitométrique 3D des bioprothèses aortiques pour faciliter leur évaluation morphologique durant le suivi et d’aider à la sélection des cas et à l'amélioration de la planification d’une procédure valve-in-valve. Le principal défi concernait le rehaussem*nt des feuillets valvulaires, en raison d’images très bruitées. Un scanner synchronisé était réalisé chez des patients porteurs d’une bioprotèse aortique dégénérée avant réintervention (images in-vivo). Différentes méthodes pour la réduction du bruit étaient proposées. La reconstruction tridimensionnelle des bioprothèses était réalisée en utilisant des méthodes de segmentation de régions par "sticks". Après ré-opération ces méthodes étaient appliquées aux images scanner des bioprothèses explantées (images ex-vivo) et utilisées comme référence. La réduction du bruit obtenue par le filtre stick modifié montrait de meilleurs résultats, en rapport signal/bruit, en comparaison aux filtres de diffusion anisotrope. Toutes les méthodes de segmentation ont permis une reconstruction 3D des feuillets. L’analyse qualitative a montré une bonne concordance entre les images obtenues in-vivo et les altérations des bioprothèses. Les résultats des différentes méthodes étaient comparés par critères volumétriques et discutés. Les images scanner des bioprothèses aortiques nécessitent un traitement de débruitage et de réduction des artéfacts de façon à permettre le rehaussem*nt des feuillets prothétiques. La méthode de segmentation de régions par sticks semble représenter une approche pertinente pour caractériser morphologiquement la dégénérescence des bioprothèses
The aim of the study was to assess the feasibility of CT based 3D analysis of degenerated aortic bioprostheses to make easier their morphological assessment. This could be helpful during regular follow-up and for case selection, improved planning and mapping of valve-in-valve procedure. The challenge was represented by leaflets enhancement because of highly noised CT images. Contrast-enhanced ECG-gated CT scan was performed in patients with degenerated aortic bioprostheses before reoperation (in-vivo images). Different methods for noise reduction were tested and proposed. 3D reconstruction of bioprostheses components was achieved using stick based region segmentation methods. After reoperation, segmentation methods were applied to CT images of the explanted prostheses (ex-vivo images). Noise reduction obtained by improved stick filter showed best results in terms of signal to noise ratio comparing to anisotropic diffusion filters. All segmentation methods applied to in-vivo images allowed 3D bioprosthetic leaflets reconstruction. Explanted bioprostheses CT images were also processed and used as reference. Qualitative analysis revealed a good concordance between the in-vivo images and the bioprostheses alterations. Results from different methods were compared by means of volumetric criteria and discussed. ECG-gated CT images of aortic bioprostheses need a preprocessing to reduce noise and artifacts in order to enhance prosthetic leaflets. Stick region based segmentation seems to provide an interesting approach for the morphological characterization of degenerated bioprostheses

17

Bonneau, Stephane. "Chemins minimaux en analyse d’images : nouvelles contributions et applications à l’imagerie biologique." Paris 9, 2006. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=2006PA090062.

Full text

APA, Harvard, Vancouver, ISO, and other styles

Abstract:

Initialement introduites en analyse d'images pour minimiser globalement la fonctionnelle des contours actifs géodésiques, les techniques basées sur les chemins minimaux permettent d'extraire d'une image des courbes ouvertes ou fermées de manière robuste. Numériquement, les chemins minimaux sont obtenus en résolvant l'équation Eikonale sur une grille discrète avec un algorithme rapide appelé Fast Marching. Dans cette thèse, nous présentons de nouvelles approches basées sur les chemins minimaux et montrons leur intérêt pour l'analyse d'images biologiques. Cette thèse comporte trois parties. Dans la première partie, nous dressons un état de l'art des modèles déformables basés frontières et des méthodes basées sur les chemins minimaux proposées jusqu'ici dans la littérature. Dans la deuxième partie, nous proposons une nouvelle approche pour automatiquement détecter et suivre, dans des séquences d'images de fluorescence 2D, des objets ponctuels visibles par intermittence. Les trajectoires des objets en mouvement, assimilées à des chemins minimaux définis dans un espace spatiotemporel, sont reconstruites avec une technique de groupement perceptuel basée sur une propagation de fronts dans le volume 2D+T. Dans une troisième partie, nous nous intéressons à l'extraction de surfaces dans des images 3D. Nous introduisons d'abord une approche par propagation de fronts permettant de paver une surface fermée par un ensemble de points. Nous proposons ensuite une méthode pour extraire un patch de surface à partir d'un point en construisant un réseau dense de chemins minimaux, puis étendons cette méthode afin d'extraire une surface fermée, de manière rapide et robuste, à partir de quelques points de surface
Introduced first in image analysis to globally minimize the geodesic active contour functionnal, minimal paths techniques are robust tools for extracting open and closed contours from images. Minimal paths are computed by solving the Eikonal equation on a discrete grid with an efficient algorithm called Fast Marching. In this thesis, we present novel approaches based on minimal paths. The interest of these techniques is illustrated by the analysis of biological images. This thesis consists of three parts. In the first part, we review the relevant litterature in boundary-based deformable models and minimal paths techniques. In the second part, we propose a new approach for automatically detecting and tracking, in sequences of 2D fluorescence images, punctual objects which are intermittently visible. Trajectories of moving objects, considered as minimal paths in a spatiotemporal space, are retrieved using a perceptual grouping approach based on front propagation in the 2D+T volume. The third part adresses the problem of surface extraction in 3D images. First, we introduce a front propagation approach to distribute a set of points on a closed surface. Then, we propose a method to extract a surface patch from a single point by constructing a dense network of minimal paths. We finally present an extension of this method to extract a closed surface, in a fast and robust manner, from a few points lying on the surface

18

Huart, Jérémy. "Extraction et analyse d’objets-clés pour la structuration d’images et de vidéos." Grenoble INPG, 2007. http://www.theses.fr/2007INPG0017.

Full text

APA, Harvard, Vancouver, ISO, and other styles

Abstract:

La description synthétique du contenu d’une image ou d’une vidéo est à l’heure actuelle une problématique majeure. Nous nous intéressons aux objets qui les composent pour leur pouvoir de représentativité. Après un état de l’art, ce document présente une méthode de segmentation locale par pyramide de graphes irrégulière permettant d’extraire, à partir de critères bas niveaux, des régions d’intérêt assimilables à des objets sémantiques. Cette méthode est utilisée pour détourer avec précision des objets dans des images fixes, dans un environnement interactif puis totalement automatique. Une estimation de mouvement permet d’étendre le procédé aux vidéos en extrayant dans chaque image les entités mobiles. Un filtrage et une classification de ces entités permet de ne retenir que les plus représentatives de chaque objet réel du plan. Ces représentants sont appelés objet-clé et vues-clés. La qualité des résultats expérimentaux permet de proposer de nombreuses applications en aval
The compact description of image and video content is currently a difficult task. We are interested in the objects that make up this content because of the representative power of these objects. After a review of the state of the art, this thesis presents a local segmentation method based on the irregular graph pyramid algorithm, which allows us to extract, using low-level features, regions of interest comparable to semantic objects. This method is used to precisely excise objects from still images, first in an interactive environment and then in an entirely automatic one. A motion estimation allows us to extend the process to videos by extracting the foreground entities from every frame. A filtering and a clustering of these entities allow us to retain only the most representative of each real object in the shot. These representations are called key-objects and key-views. The quality of the experimental results allows us to propose some future applications of our methods

19

Burte, Victor. "Étude des stratégies de mouvement chez les parasitoïdes du genre Trichogramma : apports des techniques d’analyse d’images automatiques." Thesis, Université Côte d'Azur (ComUE), 2018. http://www.theses.fr/2018AZUR4223/document.

Full text

APA, Harvard, Vancouver, ISO, and other styles

Abstract:

Les parasitoïdes du genre Trichogramma sont des micro-hyménoptères oophages très utilisés comme auxiliaires de lutte biologique. Ma thèse a pour objet la caractérisation phénotypique des stratégies de mouvement de cet auxiliaire, spécifiquement les mouvements impliqués dans l’exploration de l’espace et la recherche des œufs hôtes. Ces derniers sont des phénotypes de grande importance dans le cycle de vie des trichogrammes, et aussi des caractères d’intérêt pour évaluer leur efficacité en lutte biologique. Les trichogrammes étant des organismes de très petite taille (moins de 0,5 mm), difficilement observables, l’étude de leur mouvement peut tirer profit des avancées technologiques dans l’acquisition et l’analyse automatique des images. C’est cette stratégie que j’ai suivi en combinant un volet de développement méthodologique et un volet expérimental. Dans une première partie méthodologique, je présente trois grands types de méthodes d’analyse d’images que j’ai utilisées et contribué à développer au cours de ma thèse. Dans un second temps, je présente trois applications de ces méthodes à l’étude du mouvement chez le trichogramme. Premièrement, nous avons caractérisé au laboratoire les préférences d’orientation (phototaxie, géotaxie et leur interaction) lors de la ponte chez 18 souches de trichogramme, appartenant à 6 espèces. Ce type d’étude requérant le dénombrement d’un très grand nombre d’œufs (sains et parasités), il a été développé un nouvel outil dédié, sous forme d’un plugin ImageJ/FIJI mis à disposition de la communauté. Ce plugin flexible automatise et rend plus productible les tâches de dénombrement et d’évaluation de taux de parasitisme, rendant possible des screenings de plus grande ampleur. Une grande variabilité a pu être mise en évidence au sein du genre, y compris entre souches d’une même espèce. Cela suggère qu’en fonction de la strate végétale à protéger (herbacée, arbustive, arborée), il serait possible de sélectionner des souches afin d’optimiser leur exploitation de la zone ciblée. Dans un second temps, nous avons caractérisé les stratégies d’exploration (vitesses, trajectoires, ...) d’un ensemble de souches et d’espèces de trichogramme pour rechercher des traits propres à chaque souche ou espèce. Pour cela, j’ai mis en œuvre une méthode de tracking de groupes de trichogrammes sur enregistrement vidéo sur de courtes échelles de temps à l’aide du logiciel Ctrax et de scripts R. L’objectif était de développer un protocole de caractérisation haut-débit du mouvement de souches de trichogrammes et d’étudier la variabilité de ces traits au sein du genre. Enfin, nous avons conduit une étude de la dynamique de propagation dans l’espace de groupes de trichogrammes chez l’espèce T. cacoeciae, en mettant au point un dispositif expérimental innovant permettant de couvrir des échelles de temps et d’espace supérieures à celles habituellement imposées par les contraintes de laboratoire.Grâce à l’utilisation de prises de vue très haute résolution / basse fréquence et d’un pipeline d’analyse dédié, la diffusion des individus peut être suivie dans un tunnel de plus 6 mètres de long pendant toute une journée. J’ai notamment pu identifier un effet de la densité en individus ainsi que de la distribution des ressources sur la dynamique de propagation (coefficient de diffusion) des trichogrammes testés
Parasitoids of the genus Trichogramma are oophagous micro-hymenoptera widely used as biological control agents. My PhD is about the phenotypic characterization of this auxiliary's movement strategies, specifically the movements involved in the exploration of space and the search for host eggs. These phenotypes have great importance in the life cycle of trichogramma, and also of characters of interest to evaluate their effectiveness in biological control program. Trichogramma being very small organisms (less than 0.5 mm), difficult to observe, the study of their movement can take advantage of technological advances in the acquisition and automatic analysis of images. This is the strategy I followed by combining a methodological development component and an experimental component. In a first methodological part, I present three main types of image analysis methods that I used and helped to develop during my thesis. In a second time, I present three applications of these methods to the study of the movement of Trichogramma. First, we characterized in the laboratory the orientation preferences (phototaxis, geotaxis and their interaction) during egg laying in 22 trichogram strains belonging to 6 species. This type of study requires the counting of a large number of eggs (healthy and parasitized), it was developed a new dedicated tool in the form of an ImageJ / FIJI plugin made available to the community. This flexible plugin automates and makes more productive the tasks of counting and evaluation of parasitism rate, making possible screenings of greater magnitude. A great variability could be highlighted within the genus, including between strains of the same species. This suggests that depending on the plant layer to be protected (grass, shrub, tree), it would be possible to select trichogramma’s strains to optimize their exploitation of the targeted area. In a second time, we characterized the exploration strategies (velocities, trajectories, ...) of a set of 22 strains from 7 trichogramma species to look for traits specific to each strain or species. I implemented a method for tracking a trichogramma group on video recorded on short time scales using the Ctrax software and R scripts. The aim was to develop a protocol for high-throughput characterization of trichogramma strains movement and to study the variability of these traits within the genus. Finally, we conducted a study of the propagation dynamics in trichogramma group from the species T. cacoeciae, by developing an innovative experimental device to cover scales of time and space greater than those usually imposed by laboratory constraints. Through the use of pictures taken at very high resolution / low frequency and a dedicated analysis pipeline, the diffusion of individuals can be followed in a tunnel longer than 6 meters during a whole day. In particular, I was able to identify the effect of the population density as well as the distribution of resources on the propagation dynamics (diffusion coefficient) and the parasitism efficiency of the tested strain

20

Kieu, Van Cuong. "Modèle de dégradation d’images de documents anciens pour la génération de données semi-synthétiques." Thesis, La Rochelle, 2014. http://www.theses.fr/2014LAROS029/document.

Full text

APA, Harvard, Vancouver, ISO, and other styles

Abstract:

Le nombre important de campagnes de numérisation mises en place ces deux dernières décennies a entraîné une effervescence scientifique ayant mené à la création de nombreuses méthodes pour traiter et/ou analyser ces images de documents (reconnaissance d’écriture, analyse de la structure de documents, détection/indexation et recherche d’éléments graphiques, etc.). Un bon nombre de ces approches est basé sur un apprentissage (supervisé, semi supervisé ou non supervisé). Afin de pouvoir entraîner les algorithmes correspondants et en comparer les performances, la communauté scientifique a un fort besoin de bases publiques d’images de documents avec la vérité-terrain correspondante, et suffisamment exhaustive pour contenir des exemples représentatifs du contenu des documents à traiter ou analyser. La constitution de bases d’images de documents réels nécessite d’annoter les données (constituer la vérité terrain). Les performances des approches récentes d’annotation automatique étant très liées à la qualité et à l’exhaustivité des données d’apprentissage, ce processus d’annotation reste très largement manuel. Ce processus peut s’avérer complexe, subjectif et fastidieux. Afin de tenter de pallier à ces difficultés, plusieurs initiatives de crowdsourcing ont vu le jour ces dernières années, certaines sous la forme de jeux pour les rendre plus attractives. Si ce type d’initiatives permet effectivement de réduire le coût et la subjectivité des annotations, reste un certain nombre de difficultés techniques difficiles à résoudre de manière complètement automatique, par exemple l’alignement de la transcription et des lignes de texte automatiquement extraites des images. Une alternative à la création systématique de bases d’images de documents étiquetées manuellement a été imaginée dès le début des années 90. Cette alternative consiste à générer des images semi-synthétiques imitant les images réelles. La génération d’images de documents semi-synthétiques permet de constituer rapidement un volume de données important et varié, répondant ainsi aux besoins de la communauté pour l’apprentissage et l’évaluation de performances de leurs algorithmes. Dans la cadre du projet DIGIDOC (Document Image diGitisation with Interactive DescriptiOn Capability) financé par l’ANR (Agence Nationale de la Recherche), nous avons mené des travaux de recherche relatifs à la génération d’images de documents anciens semi-synthétiques. Le premier apport majeur de nos travaux réside dans la création de plusieurs modèles de dégradation permettant de reproduire de manière synthétique des déformations couramment rencontrées dans les images de documents anciens (dégradation de l’encre, déformation du papier, apparition de la transparence, etc.). Le second apport majeur de ces travaux de recherche est la mise en place de plusieurs bases d’images semi-synthétiques utilisées dans des campagnes de test (compétition ICDAR2013, GREC2013) ou pour améliorer par ré-apprentissage les résultats de méthodes de reconnaissance de caractères, de segmentation ou de binarisation. Ces travaux ont abouti sur plusieurs collaborations nationales et internationales, qui se sont soldées en particulier par plusieurs publications communes. Notre but est de valider de manière la plus objective possible, et en collaboration avec la communauté scientifique concernée, l’intérêt des images de documents anciens semi-synthétiques générées pour l’évaluation de performances et le ré-apprentissage
In the last two decades, the increase in document image digitization projects results in scientific effervescence for conceiving document image processing and analysis algorithms (handwritten recognition, structure document analysis, spotting and indexing / retrieval graphical elements, etc.). A number of successful algorithms are based on learning (supervised, semi-supervised or unsupervised). In order to train such algorithms and to compare their performances, the scientific community on document image analysis needs many publicly available annotated document image databases. Their contents must be exhaustive enough to be representative of the possible variations in the documents to process / analyze. To create real document image databases, one needs an automatic or a manual annotation process. The performance of an automatic annotation process is proportional to the quality and completeness of these databases, and therefore annotation remains largely manual. Regarding the manual process, it is complicated, subjective, and tedious. To overcome such difficulties, several crowd-sourcing initiatives have been proposed, and some of them being modelled as a game to be more attractive. Such processes reduce significantly the price andsubjectivity of annotation, but difficulties still exist. For example, transcription and textline alignment have to be carried out manually. Since the 1990s, alternative document image generation approaches have been proposed including in generating semi-synthetic document images mimicking real ones. Semi-synthetic document image generation allows creating rapidly and cheaply benchmarking databases for evaluating the performances and trainingdocument processing and analysis algorithms. In the context of the project DIGIDOC (Document Image diGitisation with Interactive DescriptiOn Capability) funded by ANR (Agence Nationale de la Recherche), we focus on semi-synthetic document image generation adapted to ancient documents. First, we investigate new degradation models or adapt existing degradation models to ancient documents such as bleed-through model, distortion model, character degradation model, etc. Second, we apply such degradation models to generate semi-synthetic document image databases for performance evaluation (e.g the competition ICDAR2013, GREC2013) or for performance improvement (by re-training a handwritten recognition system, a segmentation system, and a binarisation system). This research work raises many collaboration opportunities with other researchers to share our experimental results with our scientific community. This collaborative work also helps us to validate our degradation models and to prove the efficiency of semi-synthetic document images for performance evaluation and re-training

21

Bricola, Jean-Charles. "Estimation de cartes de profondeur à partir d’images stéréo et morphologie mathématique." Thesis, Paris Sciences et Lettres (ComUE), 2016. http://www.theses.fr/2016PSLEM046/document.

Full text

APA, Harvard, Vancouver, ISO, and other styles

Abstract:

Cette thèse propose de nouvelles approches pour le calcul de cartes de profondeur associées à deux images stéréoscopiques.La difficulté du problème réside dans l'établissem*nt de mises en correspondances entre les deux images stéréoscopiques. Cet établissem*nt s'avère en effet incertain dans les zones de l'image qui sont hom*ogènes, voire impossible en cas d'occultation.Afin de gérer ces deux problèmes, nos méthodes procèdent en deux étapes. Tout d'abord nous cherchons des mesures de profondeur fiables en comparant les deux images stéréoscopiques à l'aide de leurs segmentations associées. L'analyse des coûts de superpositions d'images, sur une base régionale et au travers d'échelles multiples, nous permet de réaliser des agrégations de coûts pertinentes, desquelles nous déduisons des mesures de disparités précises. De plus, cette analyse facilite la détection des zones de l'image de référence étant potentiellement occultées dans l’autre image de la paire stéréoscopique. Dans un deuxième temps, un mécanisme d'estimation se charge de trouver les profondeurs les plus plausibles, là où aucune mise en correspondance n'a pu être établie.L'ouvrage est scindé en deux parties : la première permettra au lecteur de se familiariser avec les problèmes fréquemment observés en analyse d'images stéréoscopiques. Il y trouvera également une brève introduction au traitement d'images morphologique. Dans une deuxième partie, nos opérateurs de calcul de profondeur sont présentés, détaillés et évalués
In this thesis, we introduce new approaches dedicated to the computation of depth maps associated with a pair of stereo images.The main difficulty of this problem resides in the establishment of correspondences between the two stereoscopic images. Indeed, it is difficult to ascertain the relevance of matches occurring in hom*ogeneous areas, whilst matches are infeasible for pixels occluded in one of the stereo views.In order to handle these two problems, our methods are composed of two steps. First, we search for reliable depth measures, by comparing the two images of the stereo pair with the help of their associated segmentations. The analysis of image superimposition costs, on a regional basis and across multiple scales, allows us to perform relevant cost aggregations, from which we deduce accurate disparity measures. Furthermore, this analysis facilitates the detection of the reference image areas, which are potentially occluded in the other image of the stereo pair. Second, an interpolation mechanism is devoted to the estimation of depth values, where no correspondence could have been established.The manuscript is divided into two parts: the first will allow the reader to become familiar with the problems and issues frequently encountered when analysing stereo images. A brief introduction to morphological image processing is also provided. In the second part, our algorithms to the computation of depth maps are introduced, detailed and evaluated

22

Durand, Stan. "Taille et forme des particules des constituants des supports de culture horticoles. Relations avec leurs propriétés physiques." Electronic Thesis or Diss., Rennes, Agrocampus Ouest, 2023. http://www.theses.fr/2023NSARC168.

Full text

APA, Harvard, Vancouver, ISO, and other styles

Abstract:

En culture hors-sol, une gestion raisonnée de l’eau est nécessaire pour augmenter le rendement d’une culture. Les propriétés de rétention en eau et en air des substrats horticoles sont étroitement liées à la morphologie des particules, elle conditionne leur arrangement duquel se dessine un espace poral composant au moins 85% du volume. La morphologie détaillée des particules n'a jamais été réellement étudié pour les substrats horticoles, en partie parce que l’analyse est complexe, en raison de la grande diversité des tailles et des formes des particules. Seul le tamisage a été utilisé pour caractériser les particules, cependant cette méthode rencontre beaucoup de limites (imprécise, peu informative, pas adaptée à toutes formes de particules). Pour détailler les liens entre propriétés physiques et morphologie des particules, les recherches présentées reposent sur l’utilisation de l’analyse d’images dynamique, offrant des résultats plus précis et détaillés. Diverses mesures de répartitions granulométriques et de propriétés physiques sur une grande diversité de matériaux, ont été effectuées. Les résultats révèlent une très grande diversité des tailles et des formes des particules au sein de chaque matériau. La morphologie des particules peut être résumée par leur circularité et leur longueur. Plus la taille des particules est petite, plus le substrat est composé de pores fins, plus retient d’eau, et inversem*nt moins d’air. Aussi l’évolution de la structure du matériau est impactée par les particules fines. Finalement, la longueur moyenne des particules est un bon estimateur de ses propriétés physiques. Ces travaux donnent des clés aux fabricants de supports de culture pour mieux designer leurs matières et encouragent à caractériser les propriétés physiques par l'étude de la morphologie des particules
In soilless culture, a wise management of water is necessary to increase the yield of a crop. The water and air retention properties of horticultural substrates are closely linked to the morphology of the particles, which determines their arrangement and from which a pore space is formed that makes up at least 85% of the volume. The detailed morphology of the particles has never been really studied for growing media, partly because the analysis is complex, due to the great diversity of particle sizes and shapes. Only sieving has been used to characterize the particles, however this method has many limitations (inaccurate, not very informative, not adapted to all particle shapes). In order to detail the links between physical properties and particle morphology, the presented research relies on the use of dynamic image analysis, offering more precise anddetailed results.Various measurements of particle size distributions and physical properties on a wide variety of materials have been performed. The results reveal a very large diversity of particle size and shape within each material. The morphology of the particles can be summarized by their circularity and length. The smaller the particle size, the more fine pores the growing media has, the more water it retains, and conversely the less air. Also, the evolution of the material structure is impacted by finer particles. Finally, the mean length of the particles is a good estimator of its physical properties. This work gives growing media manufacturers keys to better design their materials, and encourages to characterize the physical properties by studying particle morphology

23

Arbelot, Benoit. "Transferts d'apparence en espace image basés sur des propriétés texturelles." Thesis, Université Grenoble Alpes (ComUE), 2017. http://www.theses.fr/2017GREAM018/document.

Full text

APA, Harvard, Vancouver, ISO, and other styles

Abstract:

Les techniques de manipulation de l'apparence d'une image sont très utilisées dans de nombreux domaines comme la photographie, la biologie, l'astronomie ou le spectacle vivant. L'apparence d'une image dépend de ses couleurs et textures, mais aussi des informations 3D perçues comme les formes, les matériaux et l'éclairage. Ces caractéristiques créent aussi une atmosphère et une émotion spécifique à l'image, qui fait aussi partie de son apparence. Le but des techniques de manipulation en espace image est de modifier les couleurs et les textures pour modifier les formes, matériaux et illumination perçus, et de là éventuellement modifier l'atmosphère de l'image.Les méthodes de transfert d'apparence sont une classe spécifique de techniques de manipulation visant à rendre le processus plus intuitif en calculant automatiquement la modification à apporter à l'image. Pour ce faire, elles se basent sur une image supplémentaire fournie par l'utilisateur et représentant l'apparence désirée.Dans cette thèse, nous étudions le transfert d'apparence en espace image basé sur des propriétés texturelles. Les textures étant une partie intégrante de l'apparence, guider les transferts d'apparence par de l'information texturelle est une option attrayante. Nous présentons d'abord une technique de filtrage de descripteurs de texture pour mieux préserver les structures de l'image et les transitions entre textures. Nous utilisons ensuite ce filtrage couplé à différents descripteurs de texture pour effectuer un transfert de couleur, une colorisation et un transfert de texture localement, guidés par la texture
Image-space appearance manipulation techniques are widely used in various domains such as photography, biology, astronomy or performing arts. An image appearance depends on the image colors and texture, but also the perceived 3D informations such as shapes, materials and illumination. These characteristics also create a specific look and feel for the image, which is also part of the image appearance. The goal of image-space manipulation techniques is to modify colors and textures as a mean to alter perceived shapes, illumination, materials, and from this possibly alter the image look and feel.Appearance transfer methods are a specific type of manipulation techniques aiming to make the process more intuitive by automatically computing the image modification. In order to do so, they use an additional user-provided image depicting the desired appearance.In this thesis, we study image-space appearance transfer based on textural properties. Since textures are an integral part of the image appearance, guiding appearance transfers with textural information is an attractive approach. We first present a texture descriptor filtering framework to better preserve image edges and texture transitions in the texture analysis. We then use this framework coupled with different texture descriptors in order to apply local texture guided color transfer, colorization and texture transfer

24

Retornaz, Thomas. "Détection de textes enfouis dans des bases d’images généralistes : un descripteur sémantique pour l’indexation." Paris, ENMP, 2007. http://www.theses.fr/2007ENMP1511.

Full text

APA, Harvard, Vancouver, ISO, and other styles

Abstract:

Les bases de données multimédia, aussi bien personnelles que professionnelles, se développent considérablement et les outils automatiques pour leur gestion efficace deviennent indispensables. L’effort des chercheurs pour développer des outils d’indexation basés sur le contenu sont très importants, mais le fossé sémantique est difficile à franchir : les descripteurs de bas niveau généralement utilisés montrent leurs limites dans des cadres applicatifs de plus en plus ouverts. Le texte présent dans les images est souvent relié au contexte sémantique et constitue un descripteur pertinent. Dans cette thèse nous proposons un système de localisation de texte dans des bases d’images génériques, qui tend à être robuste au changement d’échelle et aux déformations usuelles du texte enfoui. Notre système est basé sur un opérateur résiduel numérique, l’ouvert ultime. Dans une première partie nous étudions le comportement de cet opérateur sur des images réelles, et proposons des solutions pour pallier certaines limitations. Dans une seconde partie l’opérateur est inclus dans une chaîne de traitement et complété par différents outils de caractérisation du texte. Les performances de notre approche sont évaluées sur deux bases d’images. Premièrement, nous avons pris part à la campagne d’évaluation ImagEval, remportant la première place dans la catégorie «localisation de texte». Deuxièmement pour situer notre approche par rapport à l’état de l’art, nous avons effectué des tests avec la base d’évaluation I. C. D. A. R. Enfin, un démonstrateur a été réalisé pour EADS. Pour des raisons de confidentialité, ces travaux n’ont pas pu être intégrés à ce manuscrit
Multimedia data bases, both personal and professional, are continuously growing and the need for automatic solutions becomes mandatory. Effort devoted by the research community to content-based image indexing is also growing, but the semantic gap is difficult to cross: the low level descriptors used for indexing are not efficient enough for an ergonomic manipulation of big and generic image data bases. The text present in a scene is usually linked to image semantic context and constitutes a relevant descriptor for content-based image indexing. In this thesis we present an approach to automatic detection of text from natural scenes, which tends to handle the text in different sizes, orientations, and backgrounds. The system uses a non linear scale space based on the ultimate opening operator (a morphological numerical residue). In a first step, we study the action of this operator on real images, and propose solutions to overcome these intrinsic limitations. In a second step, the operator is used in a text detection framework which contains additionally various tools of text categorisation. The robustness of our approach is proven on two different dataset. First we took part to ImagEval evaluation campaign and our approach was ranked first in the text localisation contest. Second, we produced result (using the same framework) on the free ICDAR dataset, the results obtained are comparable with those of the state of the art. Lastly, a demonstrator was carried out for EADS. Because of confidentiality, this work could not be integrated into this manuscript

25

Jiang, Zhifan. "Évaluation des mobilités et modélisation géométrique du système pelvien féminin par analyse d’images médicales." Thesis, Lille 1, 2017. http://www.theses.fr/2017LIL10003/document.

Full text

APA, Harvard, Vancouver, ISO, and other styles

Abstract:

Le meilleur traitement des troubles des mobilités du système pelvien féminin est un enjeu de société concernant particulièrement les femmes âgées. C'est dans ce contexte que cette thèse porte sur le développement des méthodes d'analyse d'images médicales permettant d'évaluer les mobilités pelviennes et modéliser les géométries des organes pelviens. Pour ce faire, nous proposons des solutions reposant sur le recalage des modèles déformables sur des images, issues de la technique d'Imagerie par Résonance Magnétique (IRM). L'ensemble des résultats permet, à partir d'IRM, spécifiquement à chaque patiente, de détecter la forme et de quantifier le mouvement d'une part des organes et de reconstruire leurs surfaces. Ce travail facilite la simulation du comportement des organes pelviens par la méthode des éléments finis. L'ensemble des outils développés a pour objectif d'aider à comprendre le mécanisme des pathologies. Ceci permettra enfin de mieux prédire l'apparition de certaines d'entre elles, de préciser et personnaliser les procédures chirurgicales
The better treatment of female pelvic mobility disorders has a social impact affecting particularly aged women. It is in this context that this thesis focuses on the development of methods in medical image analysis, for the evaluation of pelvic mobility and the geometric modeling of the pelvic organs. For this purpose, we provide solutions based on the registration of deformable models on Magnetic Resonance Images (MRI). All the results are able to detect the shape and quantify the movement of a part of the organs and to reconstruct their surfaces from patient-specific MRI. This work facilitates the simulation of the behavior of the pelvic organs using finite element method. The objective of these developed tools is to help to better understand the mechanism of the pathologies. They will finally allow to better predict the presence of certain diseases, as well as make surgical procedures more accurate and personalized

26

Lasmar, Nour-Eddine. "Modélisation stochastique pour l’analyse d’images texturées : approches Bayésiennes pour la caractérisation dans le domaine des transformées." Thesis, Bordeaux 1, 2012. http://www.theses.fr/2012BOR14639/document.

Full text

APA, Harvard, Vancouver, ISO, and other styles

Abstract:

Le travail présenté dans cette thèse s’inscrit dans le cadre de la modélisation d’images texturées à l’aide des représentations multi-échelles et multi-orientations. Partant des résultats d’études en neurosciences assimilant le mécanisme de la perception humaine à un schéma sélectif spatio-fréquentiel, nous proposons de caractériser les images texturées par des modèles probabilistes associés aux coefficients des sous-bandes. Nos contributions dans ce contexte concernent dans un premier temps la proposition de différents modèles probabilistes permettant de prendre en compte le caractère leptokurtique ainsi que l’éventuelle asymétrie des distributions marginales associées à un contenu texturée. Premièrement, afin de modéliser analytiquement les statistiques marginales des sous-bandes, nous introduisons le modèle Gaussien généralisé asymétrique. Deuxièmement, nous proposons deux familles de modèles multivariés afin de prendre en compte les dépendances entre coefficients des sous-bandes. La première famille regroupe les processus à invariance sphérique pour laquelle nous montrons qu’il est pertinent d’associer une distribution caractéristique de type Weibull. Concernant la seconde famille, il s’agit des lois multivariées à copules. Après détermination de la copule caractérisant la structure de la dépendance adaptée à la texture, nous proposons une extension multivariée de la distribution Gaussienne généralisée asymétrique à l’aide de la copule Gaussienne. L’ensemble des modèles proposés est comparé quantitativement en terme de qualité d’ajustement à l’aide de tests statistiques d’adéquation dans un cadre univarié et multivarié. Enfin, une dernière partie de notre étude concerne la validation expérimentale des performances de nos modèles à travers une application de recherche d’images par le contenu textural. Pour ce faire, nous dérivons des expressions analytiques de métriques probabilistes mesurant la similarité entre les modèles introduits, ce qui constitue selon nous une troisième contribution de ce travail. Finalement, une étude comparative est menée visant à confronter les modèles probabilistes proposés à ceux de l’état de l’art
In this thesis we study the statistical modeling of textured images using multi-scale and multi-orientation representations. Based on the results of studies in neuroscience assimilating the human perception mechanism to a selective spatial frequency scheme, we propose to characterize textures by probabilistic models of subband coefficients.Our contributions in this context consist firstly in the proposition of probabilistic models taking into account the leptokurtic nature and the asymmetry of the marginal distributions associated with a textured content. First, to model analytically the marginal statistics of subbands, we introduce the asymmetric generalized Gaussian model. Second, we propose two families of multivariate models to take into account the dependencies between subbands coefficients. The first family includes the spherically invariant processes that we characterize using Weibull distribution. The second family is this of copula based multivariate models. After determination of the copula characterizing the dependence structure adapted to the texture, we propose a multivariate extension of the asymmetric generalized Gaussian distribution using Gaussian copula. All proposed models are compared quantitatively using both univariate and multivariate statistical goodness of fit tests. Finally, the last part of our study concerns the experimental validation of the performance of proposed models through texture based image retrieval. To do this, we derive closed-form metrics measuring the similarity between probabilistic models introduced, which we believe is the third contribution of this work. A comparative study is conducted to compare the proposed probabilistic models to those of the state-of-the-art

27

Fiot, Jean-Baptiste. "Méthodes mathématiques d’analyse d’image pour les études de population transversales et longitudinales." Thesis, Paris 9, 2013. http://www.theses.fr/2013PA090053/document.

Full text

APA, Harvard, Vancouver, ISO, and other styles

Abstract:

En médecine, les analyses de population à grande échelle ont pour but d’obtenir des informations statistiques pour mieux comprendre des maladies, identifier leurs facteurs de risque, développer des traitements préventifs et curatifs et améliorer la qualité de vie des patients.Dans cette thèse, nous présentons d’abord le contexte médical de la maladie d’Alzheimer, rappelons certains concepts d’apprentissage statistique et difficultés rencontrées lors de l’application en imagerie médicale. Dans la deuxième partie,nous nous intéressons aux analyses transversales, c-a-d ayant un seul point temporel.Nous présentons une méthode efficace basée sur les séparateurs à vaste marge (SVM)permettant de classifier des lésions dans la matière blanche. Ensuite, nous étudions les techniques d’apprentissage de variétés pour l’analyse de formes et d’images, et présentons deux extensions des Laplacian eigenmaps améliorant la représentation de patients en faible dimension grâce à la combinaison de données d’imagerie et cliniques. Dans la troisième partie, nous nous intéressons aux analyses longitudinales, c-a-d entre plusieurs points temporels. Nous quantifions les déformations des hippocampus de patients via le modèle des larges déformations par difféomorphismes pour classifier les évolutions de la maladie. Nous introduisons de nouvelles stratégies et des régularisations spatiales pour la classification et l’identification de marqueurs biologiques
In medicine, large scale population analysis aim to obtain statistical information in order to understand better diseases, identify their risk factors, develop preventive and curative treatments and improve the quality of life of the patients.In this thesis, we first introduce the medical context of Alzheimer’s disease, recall some concepts of statistical learning and the challenges that typically occurwhen applied in medical imaging. The second part focus on cross-sectional studies,i.e. at a single time point. We present an efficient method to classify white matter lesions based on support vector machines. Then we discuss the use of manifoldlearning techniques for image and shape analysis. Finally, we present extensions ofLaplacian eigenmaps to improve the low-dimension representations of patients usingthe combination of imaging and clinical data. The third part focus on longitudinalstudies, i.e. between several time points. We quantify the hippocampus deformations of patients via the large deformation diffeomorphic metric mapping frameworkto build disease progression classifiers. We introduce novel strategies and spatialregularizations for the classification and identification of biomarkers

28

Morio, Jérôme. "Analyse d’images PolInSAR à l’aide de techniques statistiques et issues de la théorie de l’information." Aix-Marseille 3, 2007. http://www.theses.fr/2007AIX30052.

Full text

APA, Harvard, Vancouver, ISO, and other styles

Abstract:

Les capteurs radar (SAR) aéroportés haute résolution, tels que RAMSES, mis en oeuvre par l'ONERA, permettent de réaliser des images multicomposantes PolInSAR contenant des informations polarimétriques et/ou interférométriques. Ces images permettent de caractériser la nature du sol et du couvert végétal et peuvent donc être utilisées pour le suivi des cultures en agriculture de précision ou le contrôle de l'environnement. L’application de méthodes statistiques et issues de la théorie de l’information (technique de partition par grille active statistique fondée sur la minimisation de la complexité stochastique, entropie de Shannon, distance de Bhattacharyya) peut ainsi permettre de mieux comprendre l’apport de la radiométrie, de la polarimétrie et de l’interférométrie pour la caractérisation du milieu éclairé par le radar et de déterminer les composantes de ces images qui contiennent l’information pertinente selon les applications
High resolution airborne sensors (SAR) like RAMSES operated by the French Aerospace Lab (ONERA) are able to acquire multicomponent images PolInSAR with polarimetric and/or interferometric information on the scene lightened by the radar. This type of images has thus notably some environmental and agricultural applications (culture follow-up, forest height estimation). The complexity of PolInSAR images implies the implementation of elaborated methods based on statistics and on information theory (image partition technique based on the minimization of the stochastic complexity, Shannon entropy, Bhattacharyya distance) in order to estimate the contributions of radiometry, polarimetry and interferometry for the soil characterization and to determine the system components that bring the most useful information depending on its applications

29

Aknoun, Sherazade. "Analyse quantitative d’images de phase obtenues par interféromètrie à décalage quadri-latéral. Applications en biologie." Thesis, Aix-Marseille, 2014. http://www.theses.fr/2014AIXM4358/document.

Full text

APA, Harvard, Vancouver, ISO, and other styles

Abstract:

Ces travaux de thèse, consacrés à l'étude et analyse quantitative d'images de phase obtenues par interférométrie à décalage quadri-latéral, ont pour but la caractérisation d'un point de vue métrologique d'un outil de mesure et de ses différentes applications. Cette technique d'interférométrie, développée initialement par la société Phasics pour les marchés de la métrologie optique et de la caractérisation de faisceaux laser essentiellement, peut aussi permettre d'obtenir la cartographie d'un champ électromagnétique complexe grâce à une mesure de front d'onde. En l'utilisant sur un microscope en condition d'imagerie, ont été obtenues des images de l'intensité et de la différence de chemin optique introduite par un échantillon semi-transparent, définissant ainsi une nouvelle technique de contraste de phase quantitatif. La première partie de cette thèse sera consacrée aux techniques en microscopie qui permettent une quantification. Nous verrons les enjeux de l'obtention de ce caractère quantitatif et ce qu'il signifie dans le cadre de différentes techniques utilisant la fluorescence. On étudiera la mesure dans le cadre d'une approximation dite "projective" réalisant certaines hypothèses. On verra quelles sont les grandeurs accessibles grâce à une mesure dans le cadre de cette approximation et quelles applications en biologie peuvent être développées concernant les éléments isotropes dans une première partie et les éléments anisotropes dans une seconde partie.Nous démontrerons la possible transposition de ces applications réalisées en deux dimensions en trois dimensions avec une résolution axiale suffisante permettant une reconstruction tomographique
The aim of this thesis, dedicated to the study and quantitative analysis of phase images obtained thanks to quadri-wave lateral shearing interferometry, is to caracterize a metrological tool and its three proposed different applications.This work has been done in collaboration between Institut Fresnel (Marseille, France) and Phasics company (Palaiseau, France) and continues that of Pierre Bon who has been in charge the application this technique to microscopy. This interferometric technique, developped by Phasics, for optical metrology and lasers characterization, allows to record complex eletromagnetic field maps thanks to a wave front measurement. By using it in the microscope image plane, one can obtain inetnsity and optical path difference images of a semi-transparent biological sample. this technique is now considered as a new quantitative phase contrast technique.The first part of this manuscript will be a state of the art of quantitative microscopy techniques. The issues of quantification and its meanings in the framework of different fluorescent and phase based techniques will be discussed.A description of the technique that is used and its comparison with similar phase techniques will be done.The measurement, under the projective approximation, is studied leading to different variables. We show different applications concerning isotropic elements in a first part and anisotropic elements in the second one.We show how this measurement is trnasposed to the third dimensions allowing three dimensional imaging and complete reconstruction of refractive index maps of biological samples

30

Anger, Jérémy. "Une exploration du déflouage d’images et vidéos : les détails qui font la différence." Thesis, université Paris-Saclay, 2020. http://www.theses.fr/2020UPASN019.

Full text

APA, Harvard, Vancouver, ISO, and other styles

Abstract:

Cette thèse étudie le problème du flou et de sa suppression.Dans la première partie, nous nous concentrons sur la restauration de rafale d'images, en particulier pour le défloutage et la super-résolution.Nous étudions tout d'abord Fourier Burst Accumulation, qui fusionne efficacement les images dans le temps par une moyenne pondérée dans le domaine de Fourier.Ensuite, nous montrons que les récents progrès dans la conception de satellite permettent d'augmenter la résolution spatiale en utilisant des algorithmes de super-résolution multi-images.Nous proposons une méthode basée sur un modèle d'interpolation spline et quantifions le gain de résolution. Nous appliquons la méthode avec succès sur des images brutes Skysat prêtées par Planet.Dans la deuxième partie, nous nous concentrons sur le problème de la déconvolution non aveugle.Alors que la plupart des méthodes supposent un modèle de formation d'image trop simpliste, nous proposons de traiter explicitement la saturation, la quantification et la correction gamma, permettant une amélioration considérable des résultats.Dans la troisième partie, nous abordons le difficile problème du défloutage aveugle, où le noyau de flou n'est plus connu.Nous proposons d'abord une anatomie de la méthode de Goldstein et Fattal qui modélise les irrégularités statistiques dans le spectre de puissance des images naturelles floues afin d'estimer un noyau de flou.Ensuite, nous analysons une méthode d'estimation du noyau de flou qui utilise un a priori L0 sur les gradients de l'image.Bien que la méthode soit efficace dans des conditions idéales, nous montrons que ses performances se dégradent rapidement dans des conditions de bruit élevé.Pour faire face à ce problème, nous proposons d'améliorer la méthode afin de traiter les niveaux de bruit élevés tout en maintenant son efficacité.L'approche proposée donne des résultats équivalents à ceux obtenus avec des méthodes beaucoup plus exigeantes en temps de calcul.Enfin, nous proposons de quantifier la netteté des images de la constellation PlanetScope afin d'éliminer les images de faible qualité ou de déconvoluer celles qui sont floues
This thesis studies the problem of image and video blur and its removal.In the first part we focus on the restoration of image bursts, in particular for deblurring and super-resolution.First we study Fourier Burst Accumulation, which efficiently fuses the frames temporally by a weighted average in the Fourier domain.Then we show that the recent advances in satellite design allow to increase the spatial resolution using multi-frame super-resolution algorithms.We propose a method based on a spline interpolation model and quantify the gain of resolution. We apply the method with success on raw Skysat image bursts lent by Planet.In the second part we focus on the non-blind deconvolution problem.While most methods assume an over-simplistic image formation model, we propose to explicitly handle saturation, quantization, and gamma correction, with considerable improvement of the results.In the third part we tackle the difficult problem of blind deblurring, where the blur kernel is not known.First we propose an anatomy of the Goldstein and Fattal method which models statistical irregularities in the power spectrum of blurred natural images in order to estimate a blur kernel.Then we analyze a blur kernel estimation method that uses an L0 prior on the image gradients.While the method performs well on ideal settings, we show that its performance degrades rapidly under high noise conditions.To cope with this issue, we propose improvements of the method in order to handle high noise levels while maintaining its efficiency.The proposed approach yields results that are equivalent to those obtained with computationally far more demanding methods.Finally we propose to quantify the sharpness of images from the PlanetScope constellation to discard low quality images or deconvolve blurry ones

31

Ramadout, Benoit. "Capteurs d’images CMOS à haute résolution à Tranchées Profondes Capacitives." Thesis, Lyon 1, 2010. http://www.theses.fr/2010LYO10068.

Full text

APA, Harvard, Vancouver, ISO, and other styles

Abstract:

Les capteurs d'images CMOS ont connu au cours des six dernières années une réduction de la taille des pixels d'un facteur quatre. Néanmoins, cette miniaturisation se heurte à la diminution rapide du signal maximal de chaque pixel et à l'échange parasite entre pixels (diaphotie). C'est dans ce contexte qu'a été développé le Pixel à Tranchées Profondes Capacitives et Grille de Transfert verticale (pixel CDTI+VTG). Basé sur la structure d'un pixel « 4T », il intègre une isolation électrique par tranchées, une photodiode profonde plus volumineuse et une grille verticale permettant le stockage profond et le transfert des électrons. Des procédés de fabrication permettant cette intégration spécifique ont tout d'abord été développés. Parallèlement, une étude détaillée des transistors du pixel, également isolés par CDTI a été menée. Ces tranchées capacitives d'isolation actionnées en tant que grilles supplémentaires ouvrent de nombreuses applications pour un transistor multi-grille compatible avec un substrat massif. Un démonstrateur de 3MPixels intégrant des pixels d'une taille de 1.75*1.75 μm² a été réalisé dans une technologie CMOS 120 nm. Les performances de ce capteur ont pu être déterminées, en particulier en fonction de la tension appliquée aux CDTI. Un bas niveau de courant d'obscurité a tout particulièrement été obtenu grâce à la polarisation électrostatique des tranchées d'isolation
CMOS image sensors showed in the last few years a dramatic reduction of pixel pitch. However pitch shrinking is increasingly facing crosstalk and reduction of pixel signal, and new architectures are now needed to overcome those limitations. Our pixel with Capacitive Deep Trench Isolation and Vertical Transfer Gate (CDTI+VTG) has been developed in this context. Innovative integration of polysilicon-filled deep trenches allows high-quality pixel isolation, vertically extended photodiode and deep vertical transfer ability. First, specific process steps have been developed. In parallel, a thorough study of pixel MOS transistors has been carried out. We showed that capacitive trenches can be also operated as extra lateral gates, which opens promising applications for a multi-gate transistor compatible with CMOS-bulk technology. Finally, a 3MPixel demonstrator integrating 1.75*1.75 μm² pixels has been realized in a CMOS 120 nm technology. Pixel performances could be measured and exploited. In particular, a low dark current level could be obtained thanks to electrostatic effect of capacitive isolation trenches

32

Dufour, John-Eric. "Mesures de forme, de déplacement, et de paramètres mécaniques parstéréo-corrélation d’images isogéométrique." Thesis, Université Paris-Saclay (ComUE), 2015. http://www.theses.fr/2015SACLN004/document.

Full text

APA, Harvard, Vancouver, ISO, and other styles

Abstract:

Ces travaux de thèse sont dédiés à la mesure de formes 3D, de champs cinématiques 3D surfaciques et à l'identification de paramètres mécaniques à partir de mesures par corrélation d'images. Cette méthode optique se base sur l'utilisation de caméras comme support de la mesure. Pour cette raison, une étude des différents modèles de caméra classiquement utilisés est effectuée, puis le passage d'un formalisme continu pour la description des images à une approche discrète utilisant la notion de pixel est décrit. Une attention particulière est portée aux distorsions optiques et une approche utilisant la corrélation d'images pour les évaluer est développée. Une nouvelle méthode de mesure de forme 3D et de champs de déplacements 3D surfaciques par stéréo-corrélation d'images est introduite. Elle utilise un modèle numérique de l'objet observé comme support pour la corrélation. Cette méthode mène à une formulation globale de la stéréo-corrélation. Elle peut être écrite dans le cas général et particularisée à des surfaces NURBS (non-uniform rational B-splines). Le champ de déplacement est également exprimé dans un formalisme NURBS complètement cohérent avec le modèle géométrique utilisé pour définir la forme observée. Des mesures sont validées en utilisant des mouvements imposés à un carreau de Bézier usiné. La faisabilité de la technique dans plusieurs cas industriels est également étudiée avec, par exemple, la mesure des déplacements d'une pièce composite de train d'atterrissage chargée mécaniquement. Enfin, à partir de cette formulation isogéométrique de la mesure de champs, une étude de la caractérisation de propriétés élastiques est effectuée. Deux méthodes inspirées d'approches existantes sont ainsi proposées, utilisant des mesures de champs et des calculs numériques dans un formalisme isogéométrique pour identifier des paramètres de loi de comportement élastique isotrope sur un cas test numérique et pour un essai de traction uniaxiale
This thesis is dedicated to measurement of 3D shapes, 3D kinematic fields on surfaces and identification of mechanical properties from digital image correlation measurements. This optical method uses cameras as measurement tools. For this reason, a study of the classical camera models used is performed and the description of the digitalization of an image from a continuous to a discrete formalism using the pixel is described. A specific work is dedicated to optical distortions and a method based on digital image correlation to evaluate these distortions is developped.A new method for 3D shapes and 3D displacement fields on surfaces using stereo-correlation is introduced. A numerical description of the observed object is used as a support to perform the correlation. This method lead to a global approach to stereo-correlation. It can be rewrite in a generic case or in particular to be applied to NURBS (Non-Uniform Rational B-Splines) surfaces. The displacement fields is therefore expressed in a NURBS formalism which is completely consistent with the geometrical model used to described the observed shape. Measurements are validated using prescribed motions on a Bezier patch. The feasibility of such a technique in several industrial cases is then studied with for example the measurement of the displacement of a composite part of a landing gear under mechanical loading.Finally, from this isogeometric formulation of full-field measurement, a study of the identification of elastic properties is performed. Two methods inspired from existing approaches are proposed, using full-field measurement and numerical simulations in a common isogeometric formalism to identify parameters of an isotropic linear elastic constitutive law on a both a numerical test case and a uniaxial tensile test

33

Hostache, Renaud. "Analyse d’images satellitaires d’inondations pour la caractérisation tridimensionnelle de l’alea et l’aide à la modélisation hydraulique." Paris, ENGREF, 2006. https://pastel.archives-ouvertes.fr/pastel-00002016.

Full text

APA, Harvard, Vancouver, ISO, and other styles

Abstract:

Ce travail vise à étendre les méthodes d'analyse d'images satellitaires de crues au-delà de la détection des limites d'inondation afin d'estimer des niveaux d'eau distribués dans l'espace et d'aider la modélisation hydraulique. Inspirée des travaux de Raclot (2003) sur photographies aériennes qui fournissent des incertitudes moyennes de ±20cm, la méthode d'estimation des niveaux d'eau utilise des images satellitaires RADAR de crue et un MNT fin. Elle repose sur 1) une phase de télédétection pour cartographier l'inondation et analyser la pertinence de ses limites pour l'estimation des niveaux d'eau, 2) une phase d'analyse spatiale dans laquelle les niveaux d'eau sont estimés par croisem*nt entre les limites pertinentes et un MNT fin, puis contraints par le schéma de circulation des eaux. Les estimations de niveaux d'eau obtenues ont une incertitude moyenne de ±38cm pour une image RADARSAT-1 d'une crue de la Moselle (France, 1997). Des travaux de validation ont permis de calculer une RMSE de l'ordre de 13cm pour une image ENVISAT de l'Alzette (Luxembourg, 2003). Pour aider la modélisation hydraulique, la démarche proposée vise à réduire le phénomène d'équifinalité grâce aux images satellitaires. Pour cela, un calage "traditionnel" à partir d'hydrogrammes observés est complété par la comparaison entre résultats du modèle et surfaces inondées ou niveaux d'eau extraits des images. Pour cerner les incertitudes du calage, des simulations Monte-Carlo ont été mises en place. En perspective, la prévision de l'évolution d'une crue après acquisition d'une image devrait bénéficier de modèles mieux contraints grâce à l'utilisation des images comme condition initiale ou donnée de calage
The Thesis aims at deploying methods of flood satellite image analysis beyond 2D flood area delineation in order to estimate water levels and to help hydraulic modelling. Based on Raclot (2003) works with aerial photographs, which provide ±20cm mean uncertainty, the water level estimation method uses satellite RADAR images of flood and a fine DEM. The method is composed of two steps : i) flood cartography and analysis of image hydraulic relevance for water level estimation, ii) fusion between relevant information resulting from the image with a fine Digital Elevation Model (DEM) and constraining the water levels extracted from image by concepts of coherence with respect to a hydraulic flow through a plain. It provides water level estimations with a ±38cm mean uncertainty for a RADARSAT-1 image of a Mosel Flood (1997, France). In addition, validation works with an ENVISAT image of an Alzette river flood (Luxembourg, 2003) allowed us to calculate a Root Mean Square Error of 13 cm on the estimates of water levels. To help hydraulic modelling, the PhD aims at reducing equifinality thanks to satellite images of flood. To meet this aim, a "traditional" step of calibration thanks to hydrographs is completed by comparison between simulation results and flood extends or water levels extracted from images. To deals with calibration uncertainties, Monte-Carlo simulations have been used. In perspective, the results of the thesis imply great benefits for flood evolution forecasting after acquisition of flood satellite images because the use of these images as initial conditions or calibration data provide better-constrained models

34

Shen, Kaikai. "Automatic segmentation and shape analysis of human hippocampus in Alzheimer's disease." Thesis, Dijon, 2011. http://www.theses.fr/2011DIJOS072/document.

Full text

APA, Harvard, Vancouver, ISO, and other styles

Abstract:

L’objectif de cette thèse est l’étude des changements de la forme de l’hippocampe due à l’atrophie causée par la maladie d’Alzheimer. Pour ce faire, des algorithmes et des méthodes ont été développés pour segmenter l’hippocampe à partir d’imagerie structurelle par résonance magnétique (IRM) et pour modéliser les variations dans sa forme. Nous avons utilisé une méthode de segmentation par propagation de multiple atlas pour la segmentation de l’hippocampe, méthode qui a été démontrée comme étant robuste dans la segmentation des structures cérébrales. Nous avons développé une méthode supervisée pour construire une base de données d’atlas spécifique à la population d’intérêt en propageant les parcellations d’une base de données génériques d’atlas. Les images correctement segmentées sont inspectées et ajoutées à la base de données d’atlas, de manière à améliorer sa capacité à segmenter de nouvelles images. Ces atlas sont évalués en termes de leur accord lors de la segmentation de nouvelles images. Comparé aux atlas génériques, les atlas spécifiques à la population d’intérêt obtiennent une plus grande concordance lors de la segmentation des des images provenant de cette population. La sélection d’atlas est utilisée pour améliorer la précision de la segmentation. La méthode classique de sélection basée sur la similarité des images est ici étendue pour prendre en compte la pertinence marginale maximale (MMR) et la régression des moindres angles (LAR). En prenant en considération la redondance parmi les atlas, des critères de diversité se montrent être plus efficace dans la sélection des atlas dans le cas où seul un nombre limité d’atlas peut-être fusionné. A partir des hippocampes segmentés, des modèles statistiques de la forme (SSM) sont construits afin de modéliser les variations de la forme de l’hippocampe dans la population. La correspondance entre les hippocampes est établie par une optimisation d’ensemble des surfaces paramétriques. Les paramétrages sphériques des surfaces sont aplatis pour faciliter la reparamétrisation et l’interpolation. Le reparamétrage est régularisé par une contrainte de type fluide visqueux, qui est effectué à l’aide d’une implémentation basée sur la transformées en sinus discrète. Afin d’utiliser le SSM pour décrire la forme d’une nouvelle surface hippocampique, nous avons développé un estimateur des paramètres du model de la forme basée sur l’espérance-maximisation de l’algorithme du plus proche voisin itéré (EM-ICP). Un terme de symétrie est inclus pour forcer une consistance entre la transformée directe et inverse entre le modèle et la forme, ce qui permet une reconstruction plus précise de la forme à partir du modèle. La connaissance a priori sur la forme modélisé par le SSM est utilisée dans l’estimation du maximum a posteriori des paramètres de forme. Cette méthode permet de forcer la continuité spatiale et éviter l’effet de sur-apprentissage. Dans l’étude de l’hippocampe dans la maladie d’Alzheimer, nous utilisons le SSM pour modéliser le changement de forme de l’hippocampe entre les sujets sains et des patients souffrant d’Alzheimer. Nous identifions les régions touchées par l’atrophie dans la maladie d’Alzheimer en évaluant la différence entre les groupes de contrôle et ceux d’Alzheimer sur chaque point correspondant sur la surface. L’analyse des changements de la forme est restreinte aux régions présentant des différences significatives entre les groupes, ce qui a pour effet d’améliorer la discrimination basée sur l’analyse en composantes principales (ACP) du SSM. Les composantes principales décrivant la variabilité de la forme à l’intérieur des régions discriminantes ont une corrélation plus fortes avec le déclin des scores de mémoire épisodique liée à la pathologie de l’hippocampe dans la maladie d’Alzheimer
The aim of this thesis is to investigate the shape change in hippocampus due to the atrophy in Alzheimer’s disease (AD). To this end, specific algorithms and methodologies were developed to segment the hippocampus from structural magnetic resonance (MR) images and model variations in its shape. We use a multi-atlas based segmentation propagation approach for the segmentation of hippocampus which has been shown to obtain accurate parcellation of brain structures. We developed a supervised method to build a population specific atlas database, by propagating the parcellations from a smaller generic atlas database. Well segmented images are inspected and added to the set of atlases, such that the segmentation capability of the atlas set may be enhanced. The population specific atlases are evaluated in terms of the agreement among the propagated labels when segmenting new cases. Compared with using generic atlases, the population specific atlases obtain a higher agreement when dealing with images from the target population. Atlas selection is used to improve segmentation accuracy. In addition to the conventional selection by image similarity ranking, atlas selection based on maximum marginal relevance (MMR) re-ranking and least angle regression (LAR) sequence are developed for atlas selection. By taking the redundancy among atlases into consideration, diversity criteria are shown to be more efficient in atlas selection which is applicable in the situation where the number of atlases to be fused is limited by the computational resources. Given the segmented hippocampal volumes, statistical shape models (SSMs) of hippocampi are built on the samples to model the shape variation among the population. The correspondence across the training samples of hippocampi is established by a groupwise optimization of the parameterized shape surfaces. The spherical parameterization of the hippocampal surfaces are flatten to facilitate the reparameterization and interpolation. The reparameterization is regularized by viscous fluid, which is solved by a fast implementation based on discrete sine transform. In order to use the hippocampal SSM to describe the shape of an unseen hippocampal surface, we developed a shape parameter estimator based on the expectationmaximization iterative closest points (EM-ICP) algorithm. A symmetric data term is included to achieve the inverse consistency of the transformation between the model and the shape, which gives more accurate reconstruction of the shape from the model. The shape prior modeled by the SSM is used in the maximum a posteriori estimation of the shape parameters, which is shown to enforce the smoothness and avoid the effect of over-fitting. In the study of the hippocampus in AD, we use the SSM to model the hippocampal shape change between the healthy control subjects and patients diagnosed with AD. We identify the regions affected by the atrophy in AD by assessing the spatial difference between the control and AD groups at each corresponding landmark. Localized shape analysis is performed on the regions exhibiting significant inter-group difference, which is shown to improve the discrimination ability of the principal component analysis (PCA) based SSM. The principal components describing the localized shape variability among the population are also shown to display stronger correlation with the decline of episodic memory scores linked to the pathology of hippocampus in AD

35

Baudin, Pierre-Yves. "De la segmentation au moyen de graphes d’images de muscles striés squelettiques acquises par RMN." Thesis, Châtenay-Malabry, Ecole centrale de Paris, 2013. http://www.theses.fr/2013ECAP0033/document.

Full text

APA, Harvard, Vancouver, ISO, and other styles

Abstract:

La segmentation d’images anatomiques de muscles striés squelettiques acquises par résonance magnétique nucléaire (IRM) présente un grand intérêt pour l’étude des myopathies. Elle est souvent un préalable nécessaire pour l’étude les mécanismes d’une maladie, ou pour le suivi thérapeutique des patients. Cependant, le détourage manuel des muscles est un travail long et fastidieux, au point de freiner les recherches cliniques qui en dépendent. Il est donc nécessaire d’automatiser cette étape. Les méthodes de segmentation automatique se basent en général sur les différences d’aspect visuel des objets à séparer et sur une détection précise des contours ou de points de repère anatomiques pertinents. L’IRM du muscle ne permettant aucune de ces approches, la segmentation automatique représente un défi de taille pour les chercheurs. Dans ce rapport de thèse, nous présentons plusieurs méthodes de segmentation d’images de muscles, toutes en rapport avec l’algorithme dit du marcheur aléatoire (MA). L’algorithme du MA, qui utilise une représentation en graphe de l’image, est connu pour être robuste dans les cas où les contours des objets sont manquants ou incomplets et pour son optimisation numérique rapide et globale. Dans sa version initiale, l’utilisateur doit d’abord segmenter de petites portions de chaque région de l’image, appelées graines, avant de lancer l’algorithme pour compléter la segmentation. Notre première contribution au domaine est un algorithme permettant de générer et d’étiqueter automatiquement toutes les graines nécessaires à la segmentation. Cette approche utilise une formulation en champs aléatoires de Markov, intégrant une connaissance à priori de l’anatomie et une détection préalable des contours entre des paires de graines. Une deuxième contribution vise à incorporer directement la connaissance à priori de la forme des muscles à la méthode du MA. Cette approche conserve l’interprétation probabiliste de l’algorithme original, ce qui permet de générer une segmentation en résolvant numériquement un grand système linéaire creux. Nous proposons comme dernière contribution un cadre d’apprentissage pour l’estimation du jeu de paramètres optimaux régulant l’influence du terme de contraste de l’algorithme du MA ainsi que des différents modèles de connaissance à priori. La principale difficulté est que les données d’apprentissage ne sont pas entièrement supervisées. En effet, l’utilisateur ne peut fournir qu’une segmentation déterministe de l’image, et non une segmentation probabiliste comme en produit l’algorithme du MA. Cela nous amène à faire de la segmentation probabiliste optimale une variable latente, et ainsi à formuler le problème d’estimation sous forme d’une machine à vecteurs de support latents (latent SVM). Toutes les méthodes proposées sont testées et validées sur des volumes de muscles squelettiques acquis par IRM dans un cadre clinique
Segmentation of magnetic resonance images (MRI) of skeletal striated muscles is of crucial interest when studying myopathies. Diseases understanding, therapeutic followups of patients, etc. rely on discriminating the muscles in MRI anatomical images. However, delineating the muscle contours manually is an extremely long and tedious task, and thus often a bottleneck in clinical research. Typical automatic segmentation methods rely on finding discriminative visual properties between objects of interest, accurate contour detection or clinically interesting anatomical points. Skeletal muscles show none of these features in MRI, making automatic segmentation a challenging problem. In spite of recent advances on segmentation methods, their application in clinical settings is difficult, and most of the times, manual segmentation and correction is still the only option. In this thesis, we propose several approaches for segmenting skeletal muscles automatically in MRI, all related to the popular graph-based Random Walker (RW) segmentation algorithm. The strength of the RW method relies on its robustness in the case of weak contours and its fast and global optimization. Originally, the RW algorithm was developed for interactive segmentation: the user had to pre-segment small regions of the image – called seeds – before running the algorithm which would then complete the segmentation. Our first contribution is a method for automatically generating and labeling all the appropriate seeds, based on a Markov Random Fields formulation integrating prior knowledge of the relative positions, and prior detection of contours between pairs of seeds. A second contribution amounts to incorporating prior knowledge of the shape directly into the RW framework. Such formulation retains the probabilistic interpretation of the RW algorithm and thus allows to compute the segmentation by solving a large but simple sparse linear system, like in the original method. In a third contribution, we propose to develop a learning framework to estimate the optimal set of parameters for balancing the contrast term of the RW algorithm and the different existing prior models. The main challenge we face is that the training samples are not fully supervised. Specifically, they provide a hard segmentation of the medical images, instead of the optimal probabilistic segmentation, which corresponds to the desired output of the RW algorithm. We overcome this challenge by treating the optimal probabilistic segmentation as a latent variable. This allows us to employ the latent Support Vector Machine (latent SVM) formulation for parameter estimation. All proposed methods are tested and validated on real clinical datasets of MRI volumes of lower limbs

36

Akl, Adib. "Analyse / synthèse de champs de tenseurs de structure : application à la synthèse d’images et de volumes texturés." Thesis, Bordeaux, 2016. http://www.theses.fr/2016BORD0009/document.

Full text

APA, Harvard, Vancouver, ISO, and other styles

Abstract:

Cette thèse s’inscrit dans le contexte de la synthèse d’images texturées. Dans l’objectif d’assurer une reproduction fidèle des motifs et des variations d’orientations d’une texture initiale, un algorithme de synthèse de texture à deux étapes « structure/texture » est proposé. Il s’agit, dans une première étape, de réaliser la synthèse d’une couche de structure caractérisant la géométrie de l’exemplaire et représentée par un champ de tenseurs de structure et, dans une deuxième étape, d’utiliser le champ de structure résultant pour contraindre la synthèse d’une couche de texture portant des variations plus locales. Une réduction du temps d’exécution est ensuite développée, fondée notamment sur l’utilisation de pyramides Gaussiennes et la parallélisation des calculs mis en oeuvre.Afin de démontrer la capacité de l’algorithme proposé à reproduire fidèlement l’aspect visuel des images texturées considérées, la méthode est testée sur une variété d’échantillons de texture et évaluée objectivement à l’aide de statistiques du 1er et du 2nd ordre du champ d’intensité et d’orientation. Les résultats obtenus sont de qualité supérieure ou équivalente à ceux obtenus par des algorithmes de la littérature. Un atout majeur de l’approche proposée est son aptitude à synthétiser des textures avec succès dans de nombreuses situations où les algorithmes existants ne parviennent pas à reproduire les motifs à grande échelle.L’approche de synthèse structure/texture proposée est étendue à la synthèse de texture couleur. La synthèse de texture 3D est ensuite abordée et, finalement, une extension à la synthèse de texture de forme spécifiée par une texture imposée est mise en oeuvre, montrant la capacité de l’approche à générer des textures de formes arbitraires en préservant les caractéristiques de la texture initiale
This work is a part of the texture synthesis context. Aiming to ensure a faithful reproduction of the patterns and variations of orientations of the input texture, a two-stage structure/texture synthesis algorithm is proposed. It consists of synthesizing the structure layer showing the geometry of the exemplar and represented by the structure tensor field in the first stage, and using the resulting tensor field to constrain the synthesis of the texture layer holding more local variations, in the second stage. An acceleration method based on the use of Gaussian pyramids and parallel computing is then developed.In order to demonstrate the ability of the proposed algorithm to faithfully reproduce the visual aspect of the considered textures, the method is tested on various texture samples and evaluated objectively using statistics of 1st and 2nd order of the intensity and orientation field. The obtained results are of better or equivalent quality than those obtained using the algorithms of the literature. A major advantage of the proposed approach is its capacity in successfully synthesizing textures in many situations where traditional algorithms fail to reproduce the large-scale patterns.The structure/texture synthesis approach is extended to color texture synthesis. 3D texture synthesis is then addressed and finally, an extension to the synthesis of specified form textures using an imposed texture is carried out, showing the capacity of the approach in generating textures of arbitrary forms while preserving the input texture characteristics

37

Rivollier, Séverine. "Analyse d’image geometrique et morphometrique par diagrammes de forme et voisinages adaptatifs generaux." Thesis, Saint-Etienne, EMSE, 2010. http://www.theses.fr/2010EMSE0575/document.

Full text

APA, Harvard, Vancouver, ISO, and other styles

Abstract:

Les fonctionnelles de Minkowski définissent des mesures topologiques et géométriques d'ensembles, insuffisantes pour la caractérisation, des ensembles différents pouvant avoir les mêmes fonctionnelles. D'autres fonctionnelles de forme, géométriques et morphométriques, sont donc utilisées. Un diagramme de forme, défini grâce à deux fonctionnelles morphométriques, donne une représentation permettant d'étudier les formes d'ensembles. En analyse d'image, ces fonctionnelles et diagrammes sont souvent limités aux images binaires et déterminés de manière globale et mono-échelle. Les Voisinages Adaptatifs Généraux (VAG) simultanément adaptatifs avec les échelles d'analyse, structures spatiales et intensités des images, permettent de pallier ces limites. Une analyse locale, adaptative et multi-échelle des images à tons de gris est proposée sous forme de cartographies des fonctionnelles de forme à VAG.Les VAG, définis en tout point du support spatial d'une image à tons de gris, sont hom*ogènes par rapport à un critère d'analyse représenté dans un modèle vectoriel, suivant une tolérance d'hom*ogénéité. Les fonctionnelles de forme calculées pour chaque VAG de l'image définissent les cartographies des fonctionnelles de forme à VAG. Les histogrammes et diagrammes de ces cartographies donnent des distributions statistiques des formes des structures locales de l'image contrairement aux histogrammes classiques qui donnent une distribution globale des intensités de l'image. L'impact de la variation des critères axiomatiques des VAG est analysé à travers ces cartographies, histogrammes et diagrammes. Des cartographies multi-échelles sont construites, définissant des fonctions de forme à VAG
Minkowski functionals define set topological and geometrical measurements, insufficient for the characterization, because different sets may have the same functionals. Thus, other shape functionals, geometrical and morphometrical are used. A shape diagram, defined thanks to two morphometrical functionals, provides a representation allowing the study of set shapes. In quantitative image analysis, these functionals and diagrams are often limited to binary images and achieved in a global and monoscale way. The General Adaptive Neighborhoods (GANs) simultaneously adaptive with the analyzing scales, the spatial structures and the image intensities, enable to overcome these limitations. The GAN-based Minkowski functionals are introduced, which allow a gray-tone image analysis to be realized in a local, adaptive and multiscale way.The GANs, defined around each point of the spatial support of a gray-tone image, are hom*ogeneous with respect to an analyzing criterion function represented in an algebraic model, according to an hom*ogeneity tolerance. The shape functionals computed on the GAN of each point of the spatial support of the image, define the so-called GAN-based shape maps. The map histograms and diagrams provide statistical distributions of the shape of the gray-tone image local structures, contrary to the classical histogram that provides a global distribution of image intensities. The impact of axiomatic criteria variations is analyzed through these maps, histograms and diagrams. Thus, multiscale maps are built, defining GAN-based shape functions

38

Bayoudh, Meriam. "Apprentissage de connaissances structurelles à partir d’images satellitaires et de données exogènes pour la cartographie dynamique de l’environnement amazonien." Thesis, Antilles-Guyane, 2013. http://www.theses.fr/2013AGUY0671/document.

Full text

APA, Harvard, Vancouver, ISO, and other styles

Abstract:

Les méthodes classiques d'analyse d'images satellites sont inadaptées au volume actuel du flux de données. L'automatisation de l'interprétation de ces images devient donc cruciale pour l'analyse et la gestion des phénomènes observables par satellite et évoluant dans le temps et l'espace. Ce travail vise à automatiser la cartographie dynamique de l'occupation du sol à partir d'images satellites, par des mécanismes expressifs, facilement interprétables en prenant en compte les aspects structurels de l'information géographique. Il s'inscrit dans le cadre de l'analyse d'images basée objet. Ainsi, un paramétrage supervisé d'un algorithme de segmentation d'images est proposé. Dans un deuxième temps, une méthode de classification supervisée d'objets géographiques est présentée combinant apprentissage automatique par programmation logique inductive et classem*nt par l'approche multi-class rule set intersection. Ces approches sont appliquées à la cartographie de la bande côtière Guyanaise. Les résultats démontrent la faisabilité du paramétrage de la segmentation, mais également sa variabilité en fonction des classes de la carte de référence et des données d'entrée. Les résultats de la classification supervisée montrent qu'il est possible d'induire des règles de classification expressives, véhiculant des informations cohérentes et structurelles dans un contexte applicatif donnée et conduisant à des valeurs satisfaisantes de précision et de KAPPA (respectivement 84,6% et 0,7). Ce travail de thèse contribue ainsi à l'automatisation de la cartographie dynamique à partir d'images de télédétection et propose des perspectives originales et prometteuses
Classical methods for satellite image analysis are inadequate for the current bulky data flow. Thus, automate the interpretation of such images becomes crucial for the analysis and management of phenomena changing in time and space, observable by satellite. Thus, this work aims at automating land cover cartography from satellite images, by expressive and easily interpretable mechanism, and by explicitly taking into account structural aspects of geographic information. It is part of the object-based image analysis framework, and assumes that it is possible to extract useful contextual knowledge from maps. Thus, a supervised parameterization methods of a segmentation algorithm is proposed. Secondly, a supervised classification of geographical objects is presented. It combines machine learning by inductive logic programming and the multi-class rule set intersection approach. These approaches are applied to the French Guiana coastline cartography. The results demonstrate the feasibility of the segmentation parameterization, but also its variability as a function of the reference map classes and of the input data. Yet, methodological developments allow to consider an operational implementation of such an approach. The results of the object supervised classification show that it is possible to induce expressive classification rules that convey consistent and structural information in a given application context and lead to reliable predictions, with overall accuracy and Kappa values equal to, respectively, 84,6% and 0,7. In conclusion, this work contributes to the automation of the dynamic cartography from remotely sensed images and proposes original and promising perpectives

39

Farbos, Baptiste. "Structure et propriétés de carbones anisotropes par une approche couplant analyse d’image et simulation atomistique." Thesis, Bordeaux, 2014. http://www.theses.fr/2014BORD0331/document.

Full text

APA, Harvard, Vancouver, ISO, and other styles

Abstract:

Des techniques combinées d'analyse/synthèse d'images et de simulation atomistique ont permis d’étudier la nanostructure/-texture de matériaux carbonés anisotropes et denses de type pyrocarbone (PyC) laminaire hautement texturé. Des représentations atomiques d’un PyC laminaire rugueux tel que préparé (AP) ainsi que d’un PyC laminaire régénéré AP et après plusieurs traitements thermiques (HT) ont été reconstruites pour mieux caractériser ces matériaux. Ces modèles comportent des domaines graphéniques de quelques nanomètres, joints entre eux par des lignes de défauts formées de paires de cycles à 5 et 7 carbones dans le plan et par des dislocations vis et des atomes tétravalents entre les plans. Les modèles les plus ordonnés ont des domaines plus étendus et un plus faible taux de connexions inter-plan. Les propriétés mécaniques et thermiques prédites à partir de ces modèles sont proches de celles du graphite et augmentent avec la cohérence intra-plan et la densité de connexions inter-plans. Des modèles de graphène polycristallins ont aussi été générés. Ils sont apparus, du point de vue structural et des propriétés mécaniques, très proches des feuillets de carbones des PyCs. Ils ont permis d'étudier la réorganisation structurale se produisant au cours du HT : formation de lignes de défauts, réparation de lacunes, … Il s'agit d'un premier pas vers l'étude de la graphitation des PyCs. La méthode de reconstruction a enfin été adaptée à l'étude de l'évolution structurale d'un graphite au cours de son irradiation par les électrons. Cela a permis d'observer à l'échelle atomique la création et la propagation des défauts au cours de l'irradiation
Combined images analysis/synthesis techniques and atomistic simulation methods have allowed studying the nanostructure/-texture of anisotropic dense carbons of the highly textured laminar pyrocarbon (PyC) type.Atomic representations of an as-prepared (AP) rough laminar PyC as well as a regenerative laminar PyC AP and after several heat treatments (HT) were reconstructed to better characterize these materials.The models contain nanosized graphene domains connected between them by line defects formed by pairs of rings with 5 and 7 carbons inside layers and by screw dislocations and fourfold atoms between layers. The most ordered models have larger domains and a lower percentage of connections between the layers.Mechanical and thermal properties predicted from these models are close to those of graphite and increase with the coherence inside layers and the density of connections between layers.Models of polycrystalline graphene were also generated, showing structure and mechanical properties very close to those of the carbon layers extracted from PyCs. The structural reorganization occurring during the HT of such materials was studied: thinning of line defects and vacancy healing were observed. This represents a first step towards the study of the graphitization of PyCs.The reconstruction method was eventually adapted to study the structural evolution of a nuclear-grade graphite during its irradiation by electrons, allowing us to observe how defects are created and propagate during irradiation

40

Leclaire, Arthur. "Champs à phase aléatoire et champs gaussiens pour la mesure de netteté d’images et la synthèse rapide de textures." Thesis, Sorbonne Paris Cité, 2015. http://www.theses.fr/2015PA05S002/document.

Full text

APA, Harvard, Vancouver, ISO, and other styles

Abstract:

Dans cette thèse, on étudie la structuration des phases de la transformée de Fourier d'images naturelles, ce qui, du point de vue applicatif, débouche sur plusieurs mesures de netteté ainsi que sur des algorithmes rapides pour la synthèse de texture par l'exemple. Le Chapitre 2 présente dans un cadre unifié plusieurs modèles de champs aléatoires, notamment les champs spot noise et champs gaussiens, en prêtant une attention particulière aux représentations fréquentielles de ces champs aléatoires. Le Chapitre 3 détaille l'utilisation des champs à phase aléatoire à la synthèse de textures peu structurées (microtextures). On montre qu'une microtexture peut être résumée en une image de petite taille s'intégrant à un algorithme de synthèse très rapide et flexible via le modèle spot noise. Aussi on propose un algorithme de désocclusion de zones texturales uniformes basé sur la simulation gaussienne conditionnelle. Le Chapitre 4 présente trois mesures de cohérence globale des phases de la transformée de Fourier. Après une étude théorique et pratique établissant leur lien avec la netteté d'image, on propose un algorithme de déflouage aveugle basé sur l'optimisation stochastique de ces indices. Enfin, dans le Chapitre 5, après une discussion sur l'analyse et la synthèse directe de l'information de phase, on propose deux modèles de textures à phases cohérentes qui permettent la synthèse de textures plus structurées tout en conservant quelques garanties mathématiques simples
This thesis deals with the Fourier phase structure of natural images, and addresses no-reference sharpness assessment and fast texture synthesis by example. In Chapter 2, we present several models of random fields in a unified framework, like the spot noise model and the Gaussian model, with particular attention to the spectral representation of these random fields. In Chapter 3, random phase models are used to perform by-example synthesis of microtextures (textures with no salient features). We show that a microtexture can be summarized by a small image that can be used for fast and flexible synthesis based on the spot noise model. Besides, we address microtexture inpainting through the use of Gaussian conditional simulation. In Chapter 4, we present three measures of the global Fourier phase coherence. Their link with the image sharpness is established based on a theoretical and practical study. We then derive a stochastic optimization scheme for these indices, which leads to a blind deblurring algorithm. Finally, in Chapter 5, after discussing the possibility of direct phase analysis or synthesis, we propose two non random phase texture models which allow for synthesis of more structured textures and still have simple mathematical guarantees

41

Sadi, Ahcène. "Processus de certification de documents utilisant un authentifiant chaotique mesurable comme le Code à BullesTM par analyse d’images." Caen, 2013. http://www.theses.fr/2013CAEN2090.

Full text

APA, Harvard, Vancouver, ISO, and other styles

Abstract:

Cette thèse s’intéresse au processus de certification de documents utilisant le Code à BullesTM. Les modalités que présente le code à BullesTM ressemblent à ceux d’une biométrie, en s’inspirant de cette dernière nous avons présenté une architecture adaptée pour un système d’authentification utilisant le Code à BullesTM. Dans la première partie, nous somme intéressé aux prétraitements d’images numériques. La morphologie mathématique offre un large panel d’opérateurs pour appréhender divers problèmes de traitement d’images. Les traitements morphologiques peuvent être définis en termes d’opérations algébriques sur des ensembles ou en termes d’équations aux dérivées partielles (EDP). Dans ce contexte, nous avons choisi de travailler sur une nouvelle approche de la morphologie mathématique basée sur des équations aux différences partielles (EdP) définies sur des graphes de topologie arbitraire. Cette méthodologie permet de généraliser ces deux approches pour le traitement non local des images. Nous avons proposé une nouvelle classe de filtre de chocs à base des équations aux différences partielles (EdP) et nous avons monté leurs efficacités sur les images industrielles, nous avons proposé une nouvelle approche permettant de segmenter ce genre d’image en utilisant ces filtres de chocs. Dans la seconde partie, nous nous somme intéressé aux algorithmes d’authentification et d’identification du Code à BullesTM. Nous avons présenté un panorama de techniques employées en base de données pour indexer des données multimédias. Nous avons présenté une approche qui exploite les arbres M-TREE pour générer un système d’indexation pour Code à BullesTM
This thesis focuses on the documents certification using the Bubble TagTM. The modalities presented by the Bubble TagTM are similar to those of biometrics. Based on that similarity, we present a new architecture of documents system authentication. In the first part, we were interested in the digital images preprocessing, which is a very delicate phase in the authentication systems. Mathematical morphology provides a wide range of operators to understand various problems of image processing. Morphological processes operators can be defined in terms of algebraic (discrete) sets or as partial differential equations (PDEs). In this context, we decided to work on a new approach using mathematical morphology based on partial differences equations (PdEs) on weighted graphs. This methodology allows us to generalize these two approaches to a non-local image processing. We have proposed a new class of shock filter based on PdEs. We demonstrated their effectiveness in industrial images, and we proposed a new approach to segment this kind of image using the shocks filters. In the second part, we were interested in authentication and identification algorithms for Bubble TagTM. We presented an overview of techniques for indexing data used in the multimedia database. We have presented an approach that exploits the M-TREE trees to generate an indexing for a Bubble TagTM identification system

42

Pons, Bernad Gemma. "Aide à l’interprétation d’images radar à ouverture synthétique : analyse conjointe des propriétés géométriques et radiométriques des images SAR." Aix-Marseille 3, 2008. http://www.theses.fr/2008AIX30013.

Full text

APA, Harvard, Vancouver, ISO, and other styles

Abstract:

Le travail de cette thèse s'inscrit dans les efforts de recherche qui sont actuellement entrepris sur la segmentation et la classification pour faciliter l'interprétation des images radar. Notre thèse contribue à ces recherches en proposant une démarche semi-automatique d'analyse de scènes pour aider à l'interprétation des images acquises par un radar à ouverture synthétique (SAR). Elle s'attache principalement à l'application des méthodes de segmentation à des problèmes de classification et de reconnaissance d'objets. Son objectif est de proposer des méthodes rapides et simples, aisément compréhensibles par des utilisateurs non experts en traitement d'image. Une architecture en deux étapes est proposée. Lors de la première étape, une partition de l’image SAR est obtenue de manière non supervisée à l’aide d’une grille active statistique fondée sur la minimisation de la complexité stochastique. La seconde étape consiste à extraire de chaque région des attributs (statistiques, géométriques, des paramètres de texture) permettant de classer de manière semi-supervisée chaque région extraite. Une approche hiérarchique est retenue. En pratique, l’algorithme proposé fournit une classification initiale de l’occupation des sols ainsi que des mesures de confiance pour chaque région. Cette classification initiale peut être utilisée comme une aide à l'interprétation de l'image ou comme une source d'informations pour des traitements ultérieurs
The work of this thesis is part of the research efforts that are currently being undertaken on segmentation and classification to ease radar images interpretation. Our thesis contributes to this research by proposing a semi-automatic scene analysis approach to assist the interpretation of images acquired by a synthetic aperture radar (SAR). Mainly, it is focused on the application of segmentation methods to classification and object recognition problems. Its aim is to propose fast and simple methods, easily comprehensible by non-expert users in image processing. The proposed approach is a two-stage algorithm. First, a SAR image partition is obtained in a non-supervised manner by using a statistical active grid based on the minimization of the stochastic complexity. Then, discriminative features (statistics, geometrics and texture parameters) are calculated for each extracted region in order to classify them in a semi-supervised manner. A hierarchical approach is adopted. In practice, the proposed algorithm provides an initial land use classification as well as confidence measures for each region. This initial classification can be used as an aid to the image interpretation or as a source of information for further processing

43

Alves, Zapata José Rodolfo. "Modélisation des procédés de formage par impulsion magnétique." Thesis, Paris Sciences et Lettres (ComUE), 2016. http://www.theses.fr/2016PSLEM010/document.

Full text

APA, Harvard, Vancouver, ISO, and other styles

Abstract:

Le formage électromagnétique est une technologie qui a gagné en intérêt dans les dernières décennies - grâce notamment à la formabilité accrue qu'il offre pour les matériaux à haute résistance et faible masse spécifique tels que les alliages d'aluminium et de magnésium. Un des défis majeurs au niveau du procédé réside dans la conception et l'étude au niveau de la pièce à fabriquer et sur l'interaction entre les différents aspects physiques: les ondes électromagnétiques comme source d'énergie, la thermo-mécanique contrôlant les évolutions de déformations et de contraintes, ainsi que l'étude de l’endommagement sous des sollicitations à grande vitesse. Ce travail est consacré à la mise au point d’un modèle et d’un outil numérique prédictifs capable de traiter l’interaction entre électromagnétisme et thermo-mécanique dans un cadre éléments finis en 3D. Nous introduisons les modèles de calcul pour l'électromagnétisme : l'approche permettant d’inclure la géométrie des pièces, le couplage électrique avec le générateur, entre autres. Nous poursuivons avec les techniques de calcul nécessaires pour coupler le calcul électromagnétique avec les calculs thermo-mécaniques – en mettant l’accent sur le problème du suivi des déplacements de la pièce déformable dans le module électromagnétique. Nous introduisons aussi certains aspects plus physiques du procédé tels que les phénomènes d'élimination du retour élastique ou encore l’adhésion des surfaces (soudage). Dans le dernier chapitre, nous présentons les installations expérimentales disponibles au laboratoire. Une méthodologie pour l'identification des paramètres électriques définissant les machines et nécessaires pour effectuer la simulation est introduite
Magnetic pulse forming is a technology that has gained interest in the last decades – thanks to the increased formability it offers for high-resistance-low weight ratio materials such as aluminum and magnesium alloys. One major complexity of the process lies in the design and study at the work piece level and the interaction between the several physical aspects involved: the electromagnetic waves as source of energy, the thermo-mechanics controlling the strain and stress evolution, as well as the study of fracture and damage under high-speed loading conditions. This work is dedicated to the development of a predictive model and computational tool able to deal with the interaction between the electromagnetism and the thermo-mechanics in a 3D finite elements frame work. We introduce the computational aspects of the electromagnetism, from the selected approach to include the geometry of the parts down to the coupling with the electric machinery behind the process. This is followed by the computational techniques needed to couple the electromagnetic computation to the thermo-mechanical one with a special focus on the problem of tracking the displacement of the deformable part within the electromagnetic module. We also introduce some aspects more related to the physics of the process such as the phenomena of elastic spring-back elimination and surface bonding (welding). In the last chapter we present the experimental facilities available at the laboratory. A methodology for identification of the electric parameters defining the machinery and needed to perform the simulation is introduced

44

Ledru, Yohann. "Etude de la porosité dans les matériaux composites stratifiés aéronautiques." Thesis, Toulouse, INPT, 2009. http://www.theses.fr/2009INPT048G/document.

Full text

APA, Harvard, Vancouver, ISO, and other styles

Abstract:

La mise en œuvre des préimprégnés unidirectionnels à fibre de carbone et résine époxyde est une étape fondamentale pour la conception de pièces structurales aéronautiques. Elle influe directement sur la qualité de la pièce et notamment sur la quantité de défauts poreux qu’elle renferme. Ainsi, deux phénomènes de création de la porosité ont été identifiés expérimentalement : l’un mécanique, l’autre thermodynamique. Une fois créés, ces défauts peuvent être extraits hors de la pièce si le marouflage et le cycle de polymérisation favorisent cette évacuation gazeuse. Les effets sur la porosité de la température et de la pression imposées pendant la réticulation de la résine sont modélisés en prenant en compte les phénomènes thermo-diffuso-mécaniques entre la résine et la bulle de gaz. Un protocole expérimental reposant sur l’analyse d’image a été développé afin de quantifier le plus précisément possible le taux volumique de porosité, ainsi que leurs tailles et leurs localisations
Long fiber reinforced epoxy matrix composite laminate manufacturing process is divided into several stages. The most critical one is the polymerization stage. If not optimized, defects in the bulk material such as voids can occur. The aim of this work is to investigate the void formation and evolution processes in order to improve the thermoset laminates quality in minimizing the void ratio. Two phenomena causing void formation have been identified. The first is the mechanical entrapment of gas bubbles between prepreg plies during the lay up. Second is a thermodynamical one. Solvents and humidity absorbed by the prepreg during its manufacturing can be evaporated by increasing the temperature. Then, it has been shown that the vaccum bag lay up permeability in combination with the vaccum pressure could favour the gas washing out. In parallel, thermo-mechanical and diffusion models are coupled to obtain an accurate void size prediction along temperature and pressure applied during the polymerisation. In fact, these two parameters induce variations of the gas bubble radius inside resin. The first experimental results seem to validate qualitatively the calculated void size behaviour. Indeed, hydrostatic pressure imposed during polymerization plays a very important role on gas bubble shrinkage. Finally, a new experimental setup using image analyses has been developed to measure as accurate as possible the volume void ratio. Under specific conditions, stereology allows to extrapolate 2D results to 3D ones. Void ratios obtained with this method are in good agreement with acid digestion results. Complementary morphometric studies on void shapes have given new information about the heterogeneous void distribution in the specimen and also on the statistical void size distribution versus polymerization conditions

45

Jahel, Camille. "Analyse des dynamiques des agroécosystèmes par modélisation spatialisée et utilisation d’images satellitaires, Cas d’étude de l’ouest du Burkina Faso." Electronic Thesis or Diss., Paris, AgroParisTech, 2016. http://www.theses.fr/2016AGPT0059.

Full text

APA, Harvard, Vancouver, ISO, and other styles

Abstract:

L’organisation des territoires ruraux d’Afrique de l’Ouest a été bouleversée ces vingt dernières années par des changements rapides, dus à un accroissem*nt démographique sans précédent, à des politiques favorisant les cultures d’exportation et à l’introduction de nouvelles techniques culturales. On assiste aujourd’hui à une mutation des structures d’exploitation, une pression sur les ressources forestières, un épuisem*nt des sols et une saturation de l’espace cultivé. Les tensions pour l’accès aux ressources se multiplient, faisant souvent ressurgir d’anciens conflits ethniques, et la question de la sécurité alimentaire se pose. Dans ce contexte, des systèmes d’alerte précoce ont été mis en place dans le but d’anticiper et d’endiguer l’insécurité alimentaire par l’analyse des risques de catastrophe.La thèse s’inscrit dans le cadre de ces systèmes d’alerte précoce et traite de l’étude des changements agraires et de leurs mécanismes. Elle se propose d’explorer de nouvelles pistes méthodologiques, basées à la fois sur la modélisation et la télédétection, pour réaliser une analyse rétrospective et prospective des dynamiques agraires de la province du Tuy, située à l’ouest du Burkina Faso.Nous abordons tout d’abord la question du croisem*nt d’échelles dans les modèles de dynamiques des agroécosystèmes en développant un modèle multiscalaire des évolutions passées. Le modèle utilise les graphes d’interaction pour simuler des processus allant de l’échelle de la parcelle à l’échelle régionale (évolution des rendements, évolution des assolements, déforestation). Nous montrons ainsi qu’il est possible d’effectuer un croisem*nt d’échelles dans un modèle sans avoir recours aux méthodes d’agrégation ou de désagrégation habituellement employées pour ce type d’étude.Le modèle est ensuite utilisé pour analyser deux aspects des dynamiques agraires de la province du Tuy. Le premier aborde les dynamiques de défriche, d’abord analysées à la lumière du débat Malthus-Boserup qui porte sur l’impact de la croissance démographique sur les ressources naturelles. Des scénarios prospectifs sont simulés et leurs conséquences sur les surfaces en végétation naturelle sont évaluées : ces scénarios simulent l’émigration d’une partie de la population vers d’autres régions, la création de zones protégées, la mise en place de politiques démographiques et la conversion progressive des systèmes de production à l’agro-écologie.Le second aspect concerne les processus décisionnels des agriculteurs pour constituer leurs assolements. L’étude consiste plus précisément à comprendre les importantes variations des surfaces allouées aux différentes cultures, observées au cours de la période étudiée, via l’analyse de l’évolution simulée du poids des différents facteurs intervenant dans la prise de décision.Dans une dernière partie, nous montrons qu’il est possible de détecter explicitement des empreintes de processus anthropiques dans les images de télédétection en utilisant les simulations multiscalaires du modèle développé. Nous réalisons ensuite une assimilation de l’information satellitaire dans le modèle, pour le ré-étalonner et ainsi renforcer ses capacités à reproduire les dynamiques ayant eu lieu. Cette dernière partie ouvre d’importantes perspectives concernant l’utilisation conjointe de l’information satellitaire et des modèles de dynamiques des agroécosystèmes
Rural areas of West Africa have seen notable transformations these last two decades, mainly due to high population growth, development policies in favor of export crops and introduction of new cropping practices. The results of these developments are a pressure on forestry resources, an evolution of farming systems, a depletion of soils and a saturation of cultivated areas. The number of conflicts for resources access increases, reviving buried ethnical tensions, and the question of food security is raised. In that context, early warning systems have been developed in order to foresee and curb food insecurity by the mean of hazard analyses.The present work deals with agrarian changes and their mechanisms, in the context of early warning systems development. New methodological approaches are explored, based on modeling and remote sensing in order to create a retrospective and prospective analysis of agrarian dynamics of the Tuy province, located in West Burkina Faso.We first focus on the issue of cross-scaling in agro-ecosystems dynamics models, by building a multi-scalar model of past developments. The model uses interaction graphs to simulate processes occurring from the plot scale to the regional scale (crop production, crop rotation and crop area expansion). We show that modelling across scales is achievable without resorting to methods of aggregation or disaggregation, usually applied for this type of study.The model is then used to analyze two aspects of agrarian dynamics of Tuy province. The first one deals with clearances dynamics in the context of Malthus vs Boserup debate, concerning the impacts of demographic growth on natural resources. Prospective scenarios are simulated and their consequences on natural vegetation surfaces are assessed: these scenarios simulate emigrations of a part of the population towards other areas, the implementation of protected areas, a demographic regulation and an ecological intensification of farming systems.The second aspect concerns decisional processes of farmers in order to constitute their crops rotations. The study consists in understanding the important variations of cultivated species, observed during the studied period, by analyzing the simulated weight evolution of different determining factors involved in the decisional processes.Finally, we show that anthropic processes footprints are explicitly detectable in remote sensing images, by using multi-scalar simulations of the model developed. Then, we create an assimilation of satellite data in the model in order to re-calibrate it and reinforce its abilities to reproduce past dynamics. This last part opens important perspectives concerning the joint use of remote sensing data and agro-ecosystems dynamics

46

Garbez, Morgan. "Construction de l'architecture et des composantes visuelles d'un buisson ligneux d'ornement : le rosier." Thesis, Rennes, Agrocampus Ouest, 2016. http://www.theses.fr/2016NSARB287/document.

Full text

APA, Harvard, Vancouver, ISO, and other styles

Abstract:

Les buissons ligneux forment un modèle végétal clé pour répondreaux préoccupations sociales et environnementales.Usuellement transposé sur le modèle arborescent, leur développementarchitectural reste encore peu compris et peu étudiéau regard de leur qualité visuelle. Pour cerner et anticiper cesattentes, une méthodologie pluridisciplinaire visant le managementde la qualité visuelle des plantes d’ornement est proposée.Elle intègre l’architecture des plantes avec sa plasticité phénotypiqueet la perception de leur apparence visuelle. Sur un rosierbuisson : Rosa hybrida L. ‘Radrazz’, l’étude montre commentl’analyse architecturale avec ses outils de modélisation, l’analysesensorielle et d’image peuvent former un cadre scientifi quecohérent visant cet objectif, et transposable à d’autres taxons.Sur rosiers virtuels, et réels exposés à un gradient lumineux, l’apparencevisuelle peut être caractérisée objectivement au moyend’épreuves sensorielles sur vidéode plante en rotation à différentsstades. La vidéo permet aux sujets une meilleure représentationmentale de la plante en 3D, et ainsi une descriptionplus complète et fi able de l’apparence visuelle ; puis de prédirecette description en intégrant statistiquement l’analyse d’imagede plusieurs facettes de la plante. Certaines variables architecturalespertinentes, et de nombreuses équivalentes, potentiellementintéressantes pour étudier le développement des buissonsau cours de leur cycle de vie, permettent de prédire voire d’expliquerl’élaboration des composantes visuelles d’un cultivar
Shrubs form a key plant model to meet social and environmentalconcerns. Usually transposed on the tree model, their architecturaldevelopment is still ill-known and understudied to address visualquality. To identify and anticipate such expectations, the visual qualitymanagement of ornamental plants through a multidisciplinarymethodology is proposed. It includes architecture of the plants withits phenotypic plasticity and their visual appearance perception.On a rose bush: Rosa hybrida L. ‘Radrazz’, this work shows howarchitectural analysis with its modeling tools, sensory evaluationand image analysis can form a coherent scientifi c framework toface up to such a purpose, and be transposed for other taxa. Onvirtual rose bushes, and real ones exposed to a light gradient, thevisual appearance can be characterized objectively by means ofsensory tests using rotating plant video at different stages.Thevideo stand enables a better mental representation of the plant 3Dby the subjects, leading to a more complete and reliable descriptionof the plant visual appearance; then to predict this descriptionthrough statistically integrated image analysis of multiple plantfacets. Some relevant architectural variables, with numerousequivalents, potentially interesting to study the architecturaldevelopment of bushes during their life cycle, enabled to predicteven explain how visual components were built for a cultivar. Fora better market responsiveness, this work lays the foundationfor drafting interactive decision and innovation support tools forb

47

Cottet‐Rousselle, Cécile. "Mesure par microscopie confocale du métabolisme mitochondrial et du niveau énergétique cellulaire au cours d’épisodes de carences en substrats et/ou en oxygène." Thesis, Paris, EPHE, 2016. http://www.theses.fr/2016EPHE3096/document.

Full text

APA, Harvard, Vancouver, ISO, and other styles

Abstract:

La mitochondrie est un carrefour d’informations au centre du fonctionnement cellulaire puisque son rôle physiologique consiste à récupérer l’énergie fournie par la dégradation des produits issus de notre alimentation pour produire de l’ATP, par le processus d’oxydation phosphorylante. Cependant, des altérations du fonctionnement de la mitochondrie peuvent être responsables de nombreuses pathologies. Parmi les stress métaboliques pouvant entraîner un dysfonctionnement mitochondrial, l’ischémie-reperfusion est un phénomène présent également dans de nombreuses situations pathologiques. L’objectif de ce travail consiste à développer une approche méthodologique basée sur la microscopie confocale et l’analyse d’images afin de décortiquer les conséquences cellulaires des stress métaboliques induits lors d’épisodes de privation de substrats associée ou non à une privation partielle ou totale d’oxygène. Après avoir mis au point le programme d’analyse d’images basée sur la méthode du « tophat », deux approches ont été développées pour visualiser et quantifier la fonction mitochondriale. La première, qui combine le marquage du TMRM et l’autofluorescence du NADH, a permis de mettre en évidence des différences de réponses au stress d’ischémie-reperfusion au niveau de la chaîne respiratoire ou de l’ouverture du PTP pour les quatre types cellulaires testés : HMEC-1, INS1, RT112 ou hépatocytes primaires. La seconde approche a consisté à tester l’utilisation de biosenseurs permettant de suivre les variations de concentration d’ATP (Ateam) ou d’activation de l’AMPK (AMPKAR). Les conditions expérimentales réalisées dans ce travail n’ont pas permis de valider leur utilisation
Mitochondria form an information hub at the center of the cellular metabolism because of its physiological role consisting in the porduction of ATP from the degradation of porducts stemming from our food through the OXPHOS process. However, changes in the functionnig of the mitochondria can be responsible for numerous diseases. Among the different foms of metabolic stress leading to mitchondrial dysfunctions, ischemia-reperfusion can be found in numerous pathological situations. This work aims at developing a methodological approach based on confocal microscopy and image analysis to dissect –at cell level- the consequences of metabolic stress induced by episodes of deprivation in substrata associated or not with hypoxia or anoxia. Having developed the program of image analysis based on the « tophat » method, two approaches were designed to vizualize and quantify the mitochondrial function. The first one, combining TMRM labelling with NADH fluorescence made it possible to highlight some differences in the response to the stress caused by ischemia-reperfusion at the level of the respiratory chain or concerning the PTP opening in the four cellular types that were tested : HMEC-1, INS1, RT112 or pirmary heaptocyes. The second approach consisted in testing the use of biosensors designed to follow the variations of ATP concentration (ATeam) or the activation of AMPK (AMPKAR). The experimental conditions established in this work did not allow us to validate their use

48

Walbron, Amaury. "Analyse rapide d’images 3D de matériaux hétérogènes : identification de la structure des milieux et application à leur caractérisation multi-échelle." Thesis, Orléans, 2016. http://www.theses.fr/2016ORLE2015/document.

Full text

APA, Harvard, Vancouver, ISO, and other styles

Abstract:

La simulation numérique est un outil de plus en plus utilisé pour la conception et le choix de matériaux composites. Celle-ci permet en effet de générer et tester numériquement des structures très diverses plus facilement et plus rapidement qu’avec des procédés de fabrication et de tests réels. Suite au choix d’un matériau virtuel et sa fabrication tangible, un retour sur expérience est nécessaire afin de valider simultanément la simulation et le procédé de fabrication. Pour cela, la numérisation des matériaux fabriqués permet de renvoyer une modélisation comparable aux structures virtuelles générées. Il devient possible d’appliquer les mêmes algorithmes de simulation et de vérifier les prévisions.Le sujet de cette thèse consiste donc en la modélisation de matériaux composites réels à partir d’images 3D, afin d’y retrouver le matériau virtuel originel. Des méthodes de traitement d’images sont appliquées aux images afin d’en extraire les informations sur la structure du matériau, c’est-à-dire la localisation de chaque constituant et, s’il y a lieu, de leurs orientations. Ces connaissances permettent théoriquement de simuler le comportement thermique et mécanique de structures constituées du matériau étudié.Cependant, en pratique, représenter fidèlement les composites demande de prendre une discrétisation très fine. Par conséquent, une structure macroscopique demande beaucoup trop de points de discrétisation et donc de temps de calcul et de mémoire pour simuler son comportement. Un aspect de la thèse consiste donc aussi en la détermination d’un matériau hom*ogène équivalent, permettant d’alléger la charge de calcul pour les algorithmes de simulation
Digital simulation is a wide-spreading tool for composite materials design and choice. Indeed it allows to generate and test digitally various structures more easily and quickly than with real manufacturing and tests processes. A feedback is needed following the choice and the fabrication of a virtual material in order to simultaneously validate the simulation and the fabrication process. With this aim, models similar to generated virtual structures are obtained by digitization of manufacturing materials. The same simulation algorithms can then be applied and allow to verify the forecasts. This thesis is also about the modelling of composite materials from 3D images, in order to rediscover in them the original virtual material. Image processing methods are applied to images to extract material structure data, i.e. each constituent localization, and orientation if applicable. These knowledge theoretically allow to simulate thermal and mechanical behavior of structures constituted of studied material. However to accurately represent composites requires practically a very small discretization step. Therefore behavior simulation of a macroscopic structure needs too much discretization points, and then time and memory. Hence a part of this thesis focuses also on determination of equivalent hom*ogeneous material problem, which allows, when resolved, to lighten calculation time for simulation algorithms

49

Harroue, Benjamin. "Approche bayésienne pour la sélection de modèles : application à la restauration d’image." Thesis, Bordeaux, 2020. http://www.theses.fr/2020BORD0127.

Full text

APA, Harvard, Vancouver, ISO, and other styles

Abstract:

L’inversion consiste à reconstruire des objets d’intérêt à partir de données acquises au travers d’un système d’observation. Dans ces travaux, nous nous penchons sur la déconvolution d’image. Les données observées constituent une version dégradée de l’objet, altéré par le système (flou et bruit). A cause de la perte d’informations engendrée, le problème devient alors mal conditionné. Une solution est de régulariser dans un cadre bayésien : en se basant sur des modèles, on introduit de l’information a priori sur les inconnues. Se posent alors les questions suivantes : comment comparer les modèles candidats et choisir le meilleur ? Sur quel critère faut-il s’appuyer ? A quelles caractéristiques ou quantités doit-on se fier ? Ces travaux présentent une méthode de comparaison et de sélection automatique de modèles, fondée sur la théorie de la décision bayésienne. La démarche consiste à sélectionner le modèle qui maximise la probabilité a posteriori. Pour calculer ces dernières, on a besoin de connaître une quantité primordiale : l’évidence. Elle s’obtient en marginalisant la loi jointe par rapport aux inconnus : l’image et les hyperparamètres. Les dépendances complexes entre les variables et la grande dimension de l’image rendent le calcul analytique de l’intégrale impossible. On a donc recours à des méthodes numériques. Dans cette première étude, on s’intéresse au cas gaussien circulant. Cela permet, d’une part, d’avoir une expression analytique de l’intégrale sur l’image, et d’autre part, de faciliter la manipulation des matrices de covariances. Plusieurs méthodes sont mises en œuvre comme l’algorithme du Chib couplé à une chaîne de Gibbs, les power posteriors, ou encore la moyenne harmonique. Les méthodes sont ensuite comparées pour déterminer lesquelles sont les plus adéquates au problème dela restauration d’image
Inversing main goal is about reconstructing objects from data. Here, we focus on the special case of image restauration in convolution problems. The data are acquired through a altering observation system and additionnaly distorted by errors. The problem becomes ill-posed due to the loss of information. One way to tackle it is to exploit Bayesian approach in order to regularize the problem. Introducing prior information about the unknown quantities osset the loss, and it relies on stochastic models. We have to test all the candidate models, in order to select the best one. But some questions remain : how do you choose the best model? Which features or quantities should we rely on ? In this work, we propose a method to automatically compare and choose the model, based on Bayesion decision theory : objectively compare the models based on their posterior probabilities. These probabilities directly depend on the marginal likelihood or “evidence” of the models. The evidence comes from the marginalization of the jointe law according to the unknow image and the unknow hyperparameters. This a difficult integral calculation because of the complex dependancies between the quantities and the high dimension of the image. That way, we have to work with computationnal methods and approximations. There are several methods on the test stand as Harmonic Mean, Laplace method, discrete integration, Chib from Gibbs approximation or the power posteriors. Comparing is those methods is significative step to determine which ones are the most competent in image restauration. As a first lead of research, we focus on the family of Gaussian models with circulant covariance matrices to lower some difficulties

50

Rohé, Marc-Michel. "Représentation réduite de la segmentation et du suivi des images cardiaques pour l’analyse longitudinale de groupe." Thesis, Université Côte d'Azur (ComUE), 2017. http://www.theses.fr/2017AZUR4051/document.

Full text

APA, Harvard, Vancouver, ISO, and other styles

Abstract:

Cette thèse présente des méthodes d’imagerie pour l’analyse du mouvement cardiaque afin de permettre des statistiques groupées, un diagnostic automatique et une étude longitudinale. Ceci est réalisé en combinant des méthodes d’apprentissage et de modélisation statistique. En premier lieu, une méthode automatique de segmentation du myocarde est définie. Pour ce faire, nous développons une méthode de recalage très rapide basée sur des réseaux neuronaux convolutifs qui sont entrainés à apprendre le recalage cardiaque inter-sujet. Ensuite, nous intégrons cette méthode de recalage dans une pipeline de segmentation multi-atlas. Ensuite, nous améliorons des méthodes de suivi du mouvement cardiaque afin de définir des représentations à faible dimension. Deux méthodes différentes sont développées, l’une s’appuyant sur des sous-espaces barycentriques construits sur des frames de référence de la séquence et une autre basée sur une représentation d’ordre réduit du mouvement avec des transformations polyaffine. Enfin, nous appliquons la représentation précédemment définie au problème du diagnostic et de l’analyse longitudinale. Nous montrons que ces représentations en- codent des caractéristiques pertinentes permettant le diagnostic des patients atteint d’infarct et de Tétralogie de Fallot ainsi que l’analyse de l’évolution dans le temps du mouvement cardiaque des patients atteints de cardiomyopathies ou d’obésité. Ces trois axes forment un cadre pour l’étude du mouvement cardiaque de bout en bout de l’acquisition des images médicales jusqu’à leur analyse automatique afin d’améliorer la prise de décision clinique grâce à un traitement personnalisé assisté par ordinateur
This thesis presents image-based methods for the analysis of cardiac motion to enable group-wise statistics, automatic diagnosis and longitudinal study. This is achieved by combining advanced medical image processing with machine learning methods and statistical modelling. The first axis of this work is to define an automatic method for the segmentation of the myocardium. We develop a very-fast registration method based on convolutional neural networks that is trained to learn inter-subject heart registration. Then, we embed this registration method into a multi-atlas segmentation pipeline. The second axis of this work is focused on the improvement of cardiac motion tracking methods in order to define relevant low-dimensional representations. Two different methods are developed, one relying on Barycentric Subspaces built on ref- erences frames of the sequence, and another based on a reduced order representation of the motion from polyaffine transformations. Finally, in the last axis, we apply the previously defined representation to the problem of diagnosis and longitudinal analysis. We show that these representations encode relevant features allowing the diagnosis of infarcted patients and Tetralogy of Fallot versus controls and the analysis of the evolution through time of the cardiac motion of patients with either cardiomyopathies or obesity. These three axes form an end to end framework for the study of cardiac motion starting from the acquisition of the medical images to their automatic analysis. Such a framework could be used for diagonis and therapy planning in order to improve the clinical decision making with a more personalised computer-aided medicine

You might also be interested in the bibliographies on the topic 'Analyses d’images' for other source types:

Journal articles

To the bibliography
Dissertations / Theses: 'Analyses d’images' – Grafiati (2024)
Top Articles
Latest Posts
Article information

Author: Jamar Nader

Last Updated:

Views: 6306

Rating: 4.4 / 5 (75 voted)

Reviews: 82% of readers found this page helpful

Author information

Name: Jamar Nader

Birthday: 1995-02-28

Address: Apt. 536 6162 Reichel Greens, Port Zackaryside, CT 22682-9804

Phone: +9958384818317

Job: IT Representative

Hobby: Scrapbooking, Hiking, Hunting, Kite flying, Blacksmithing, Video gaming, Foraging

Introduction: My name is Jamar Nader, I am a fine, shiny, colorful, bright, nice, perfect, curious person who loves writing and wants to share my knowledge and understanding with you.