Use este identificador para citar ou linkar para este item: http://repositorio.ufgd.edu.br/jspui/handle/prefix/2385
Tipo: Tese
Título: Detecção e classificação de doenças e pragas da soja usando imagens de veículos aéreos não tripulados e técnicas de visão computacional
Título(s) alternativo(s): Detection and classification of soybean diseases and pests using unmanned aerial vehicle imaging and computer vision techniques
Autor(es): Tetila, Everton Castelão
Primeiro Orientador: Pistori, Hemerson
metadata.dc.contributor.advisor-co1: Machado, Bruno Brandoli
metadata.dc.contributor.referee1: Oliveira, Michel Angelo Constantino de
metadata.dc.contributor.referee2: Marques, Rúbia Renata
metadata.dc.contributor.referee3: Santos, Jefersson Alex dos
metadata.dc.contributor.referee4: Marcato Junior, José
Resumo: A soja (Glycine max) é uma oleaginosa com bom perfil nutricional e importante respaldo econômico para a indústria alimentícia ao redor do mundo. Desde a semeadura até a colheita, a cultura da soja está sujeita a ataques bióticos de pragas e doenças, podendo ocasionar a depreciação do produto final. Esta tese propõe criar um novo sistema de visão computacional para identificar doenças e pragas na cultura da soja que seja capaz de apresentar ao produtor o nível de infestação de cada região da lavoura para um manejo mais eficiente de suas populações. O sistema proposto baseia-se no método Simple Linear Iterative Clustering (SLIC) para segmentar as folhas das plantas nas imagens da plantação, capturadas por veículos aéreos não tripulados (VANT) de uma linha bastante popular do mercado de VANT, denominada DJI Phantom. Em seguida, técnicas rasas e profundas da aprendizagem de máquina são usadas na classificação de doenças e pragas agrícolas. Na tarefa de classificação de doenças, o desempenho das técnicas de aprendizagem de máquina supervisionada foi avaliado para cinco alturas de voo diferentes: 1, 2, 4, 8 e 16 metros. Com técnicas rasas (SVM, k-NN, Naive Bayes, J48, AdaBoost e Random Forest) e atributos visuais das folhas (cor, gradiente, textura e forma), os experimentos sustentaram a hipótese de que as alturas de voo mais próximas entre o VANT e a planta apresentam maiores taxas de classificação correta (TCC). Para aprendizagem rasa, especificamente usando o classificador SVM, os experimentos alcançaram 98,34% na identificação da doença foliar usando alturas de voo entre 1 e 2 metros, com decaimento de 2% a cada metro, uma vez que a resolução da planta na imagem diminui para uma altura de voo mais alta. Os experimentos também confirmaram que mesmo catalogando novas doenças e aumentando o número de 3 para 6 classes, não houve evidência de diferença estatística significativa das métricas de desempenho para os dados coletados pelo VANT a 2 metros de altura da plantação. Com técnicas de aprendizagem profunda, quatro modelos reconhecidos pela concorrência no ImageNet foram avaliados para o reconhecimento automático de doenças foliares da soja, usando diferentes estratégias de fine-tuning (ajuste fino) e transfer learning (transferência de aprendizagem), sobre um conjunto de 3.000 imagens capturadas em condições reais de campo. Aumento de dados (data augmentation) e função de abandono dropout foram usados durante o treinamento da rede para aumentar a quantidade de dados e eliminar aleatoriamente alguns dos neurônios ocultos na rede, evitando o sobreajuste (overfitting). Os resultados mostraram que os modelos Inception-V3, Resnet-50, VGG-19 e Xception alcançaram taxas de classificação mais altas usando a estratégia de ajuste fino, atingindo 99,04% de amostras classificadas corretamente. Do mesmo modo, os modelos de aprendizagem profunda foram avaliados para a tarefa de classificação de insetos da soja, usando diferentes estratégias de fine-tuning e transfer learning, sobre um conjunto de 5.000 imagens coletadas diretamente do campo com a câmera de um smartphone. Os resultados mostraram que os modelos de aprendizagem profunda treinados com um ajuste fino atingiram maiores taxas de classificação em comparação a outras abordagens, alcançando uma acurácia de até 93,82%. Além disso, os modelos de aprendizagem profunda superaram nos experimentos os métodos de extração de atributos tradicionais, como SIFT e SURF com a abordagem histograma de palavras visuais, o método de aprendizagem semi supervisionada OPFSEMImst e os métodos de aprendizagem supervisionada usados para classificar imagens, como SVM, k-NN, Naive Bayes, J48, AdaBoost e Random Forest. Na tarefa de contagem de insetos-praga, três modelos de aprendizagem profunda foram avaliados. Os pesos da rede neural convolucional (RNC) DenseNet-201 FT - que obteve o maior valor para a acurácia (94,89%) na tarefa de classificação - foram usados em nosso sistema de visão computacional para a contagem dos insetos na imagem, obtida pela adição dos superpixels de cada classe. Deste modo, demonstramos como um modelo de aprendizagem profunda pode ser implementado em um sistema de visão computacional de ponta a ponta para operar em um ambiente de campo real, sob diferentes condições de iluminação, tamanho de objeto e variações de fundo. Na etapa de pós-processamento um mapa colorido é gerado, fornecendo uma classe de cada problema (doença ou praga) por segmento e a soma dos superpixels apresenta ao produtor o nível de infestação de uma região da lavoura, ao classificar os segmentos de uma imagem da plantação. Os resultados indicam que os modelos de aprendizagem profunda podem ser usados com sucesso para apoiar especialistas e agricultores no monitoramento de patógenos e pragas nos campos de soja.
Abstract: Soybean (Glycine max) is an oleaginosa with good nutritional profile and important economic support for the food industry around the world. From sowing to harvesting, soybean cultivation can be affected by biotic pest and disease attacks, which may lead to depreciation of the final product. This thesis proposes to create a new system of computational vision to identify diseases and pests in the soybean crop that is able to present to the producer the level of infestation of each region of the field for a more efficient management of its populations. The proposed system is based on the Simple Linear Iterative Clustering (SLIC) method to segment plant leaves in the planting images captured by Unmanned Aerial Vehicles (UAVs) from a very popular UAV market line, called DJI Phantom. Then, shallow and deep techniques of machine learning are used in the classification of diseases and agricultural pests. In the task of disease classification, the performance of supervised machine learning techniques was evaluated for five different flight heights: 1, 2, 4, 8 and 16 meters. With shallow techniques (SVM, k-NN, Naive Bayes, J48, AdaBoost and Random Forest) and visual attributes of the leaves (color, gradient, texture and shape), the experiments supported the hypothesis that the closest flight heights between the UAV and the plant show higher correct classification rates (CCR). For shallow learning, specifically using the SVM classifier, the experiments reached 98.34% in the identification of foliar disease using flight heights between 1 and 2 meters, with decay of 2% to each meter, since the resolution of the plant in the image decreases to a higher flight height. The experiments also confirmed that even cataloging new diseases and increasing the number of 3 to 6 classes, there was no evidence of significant statistical difference of the performance metrics for the data collected by UAV at 2 meters height of the plantation. With deep learning techniques, four models recognized by the competition in ImageNet were evaluated for the automatic recognition of soybean leaf diseases using different strategies of fine-tuning and transfer learning on a set of 3,000 images captured under real field conditions. Data augmentation and dropout were used during network training to increase the amount of data and randomly eliminate some of the hidden neurons in the network, avoiding overfitting. The results showed that the Inception-V3, Resnet-50, VGG-19 and Xception models achieved higher classification rates using the fine-tuning strategy, achieving 99.04% of correctly classified samples. Likewise, the deep learning models were evaluated for the classification task of soybean insects using different strategies of fine-tuning and transfer learning on a set of 5,000 images collected directly from the field with the camera of a smartphone. The results showed that deep learning models trained with a fine-tuning achieved the highest classification rates compared to other approaches, reaching an accuracy of up to 93.82%. In addition, deep learning models have outperformed traditional features extraction methods such as SIFT and SURF with the bag of visual words approach, the OPFSEMImst semi-supervised learning method, and the supervised learning methods used to classify images, such as SVM, k-NN, Naive Bayes, J48, AdaBoost and Random Forest. In the pest insect counting task, three deep learning models were evaluated. The weights of the DenseNet-201 FT convectional neural network (CNN) - which obtained the highest value for accuracy (94.89%) in the classification task - were used in our computer vision system for counting insects in the image obtained by adding the superpixels of each class. In this way, we demonstrate how a deep learning model can be implemented in an end-to-end computer vision system to operate in a real field setting, under different lighting conditions, object size and background variations. In the post-processing stage a color map is generated, providing a class of each problem (disease or pest) per segment and the sum of the superpixels presents to the producer the level of infestation of a crop region by classifying the segments of an image of the plantation. The results indicate that the deep learning models can be successfully used to support specialists and farmers in the monitoring of pathogens and pests in soybean fields.
Palavras-chave: Sensoriamento remoto
Remote sensing
Glycine max
Inseto nocivo
Pest insects
CNPq: CNPQ::CIENCIAS AGRARIAS
Idioma: por
País: Brasil
Editor: Universidade Católica Dom Bosco
Sigla da Instituição: UCDB
metadata.dc.publisher.program: Programa de pós-graduação em Desenvolvimento Local
Citação: TETILA, E. C. Detecção e classificação de doenças e pragas da soja usando imagens de veículos aéreos não tripulados e técnicas de visão computacional. 2019. Tese (Doutorado em Desenvolvimento Local) – Universidade Católica Dom Bosco, Campo Grande, MS, 2019.
Tipo de Acesso: Acesso Aberto
URI: http://repositorio.ufgd.edu.br/jspui/handle/prefix/2385
Data do documento: 20-Ago-2019
Aparece nas coleções:Teses

Arquivos associados a este item:
Arquivo Descrição TamanhoFormato 
UCDB - EvertonCastelaoTetila.pdf50,79 MBAdobe PDFVisualizar/Abrir


Os itens no repositório estão protegidos por copyright, com todos os direitos reservados, salvo quando é indicado o contrário.