Sistema de seguimiento de crecimiento de cultivo de cannabis utilizando técnicas de visión artificial

dc.contributor.advisorGonzález Acevedo, Hernando
dc.contributor.apolounabGonzález Acevedo, Hernando [hernando-gonzalez-acevedo]spa
dc.contributor.authorCala Suárez, José Daniel
dc.contributor.cvlacGonzález Acevedo, Hernando [544655]spa
dc.contributor.googlescholarGonzález Acevedo, Hernando [V8tga0cAAAAJ]spa
dc.contributor.orcidGonzález Acevedo, Hernando [0000-0001-6242-3939]spa
dc.contributor.researchgateGonzález Acevedo, Hernando [Hernando_Gonzalez3]spa
dc.contributor.researchgroupGrupo de Investigación Control y Mecatrónica - GICYMspa
dc.contributor.scopusGonzález Acevedo, Hernando [55821231500]spa
dc.coverage.campusUNAB Campus Bucaramangaspa
dc.coverage.spatialSiachoque (Boyacá, Colombia)spa
dc.coverage.temporalSeptiembre 2022spa
dc.date.accessioned2024-11-26T14:23:17Z
dc.date.available2024-11-26T14:23:17Z
dc.date.issued2024-11-25
dc.degree.nameIngeniero Mecatrónicospa
dc.description.abstractLa industria agrícola necesita de un control riguroso en sus cultivos para asegurar un estándar adecuado en la calidad en su producto final, y para cumplir con esa necesidad se usan diversas técnicas y herramientas para tratar con esas necesidades. Por esa razón, el objetivo de este trabajo es elaborar una metodología para obtención de una base de datos y construir un programa de entrenamiento con Redes Neuronales Convolucionales (CNN) capaz de detectar enfermedades en plantas de cannabis, tales como Botritis en tapa inicial, intermedia y avanzada, y deficiencias nutricionales provocadas por falta de potasio y magnesio). En adición, se busca crear una interfaz gráfica que permita la carga de imágenes nuevas del cultivo, realice predicciones basadas en el entrenamiento y facilite la toma de decisiones por parte del usuario final acerca de los correctivos para la salud del cultivo.spa
dc.description.abstractenglishThe agricultural industry needs rigorous control of its crops to ensure an adequate standard of quality in its final product, and to meet this need, several techniques and tools are used. For this reason, the objective of this project is to develop a methodology to obtain a database and build a training program with Convolutional Neural Networks (CNN) capable of detecting diseases in cannabis plants, such as Botrytis in early, intermediate and advanced stages, and nutritional deficiencies caused by lack of potassium and magnesium. In addition, this research seeks to create a graphical interface that allows the loading of new images of the crop, make predictions based on training and facilitate decision-making by the end user about corrective measures for the health of the crop.spa
dc.description.degreelevelPregradospa
dc.description.learningmodalityModalidad Presencialspa
dc.description.tableofcontents1 INTRODUCCIÓN ........................................................................................................ 6 1.1 OBJETIVOS ....................................................................................................... 7 1.1.1 OBJETIVO GENERAL .................................................................................... 7 1.1.2 OBJETIVOS ESPECÍFICOS .......................................................................... 7 2 ESTADO DEL ARTE .................................................................................................. 8 3 CONSTRUCCIÓN DE LA BASE DE DATOS ............................................................ 11 3.1 METODOLOGÍA DE TOMA DE IMÁGENES PARA LA CONSTRUCCIÓN DE LA BASE DE DATOS ........................................................................................................ 12 3.1.1 APLICACIÓN DE LA METODOLOGÍA ......................................................... 14 3.1.2 ADQUISICIÓN DE IMÁGENES Y DETERMINACIÓN DE CLASES Y DESCRIPTORES ..................................................................................................... 15 4 DESARROLLO DEL SISTEMA DE CLASIFICACIÓN ............................................... 18 4.1 ETIQUETADO .................................................................................................. 18 4.2 MODELOS DE REDES NEURONALES ........................................................... 20 4.2.1 UNET ........................................................................................................... 20 4.2.2 RESNET 101 ................................................................................................ 22 4.3 COCO DATASET ............................................................................................. 22 4.4 DESARROLLO DEL MODELO DE ENTRENAMIENTO ................................... 23 4.4.1 CARGADOR DE DATOS .............................................................................. 23 4.4.2 CREACIÓN DEL OBJETO DATASET Y DATALOADER .............................. 30 4.4.3 COMPROBACIÓN DE LOS BATCHES ........................................................ 34 4.4.4 CREACIÓN DEL MODELO Y APRENDIZAJE POR TRANSFERENCIA ...... 37 4.4.5 BUCLE DE ENTRENAMIENTO .................................................................... 39 4.4.6 INFERENCIA ................................................................................................ 50 5 VALIDACIÓN DEL SISTEMA DE CLASIFICACIÓN .................................................. 52 5.1 ENTORNO VIRTUAL ....................................................................................... 53 5.2 INTERFAZ ........................................................................................................ 54 5.3 VALIDACIÓN Y DISCUSIÓN............................................................................ 66 5.3.1 RESULTADOS EN LAS MÉTRICAS ............................................................ 67 5.3.2 RESULTADOS EN PREDICCIÓN VISUAL................................................... 70 6 CONCLUSIONES ..................................................................................................... 80 7 BIBLIOGRAFÍA ......................................................................................................... 82 8 ANEXOS .................................................................................................................. 84 8.1 DATOS DEL ESPECIALISTA ........................................................................... 84 8.2 PYTORCH Y CUDA ......................................................................................... 85 8.3 IMÁGENES DE LA BASE DE DATOS .............................................................. 86 8.3.1. IMÁGENES DE ENTRENAMIENTO ............................................................... 86 8.3.2. IMÁGENES DE VALIDACIÓN......................................................................... 90 8.3.3. IMÁGENES DE TESTEO ................................................................................ 92 8.4 REQUERIMIENTOS ............................................................................................. 112spa
dc.format.mimetypeapplication/pdfspa
dc.identifier.instnameinstname:Universidad Autónoma de Bucaramanga - UNABspa
dc.identifier.reponamereponame:Repositorio Institucional UNABspa
dc.identifier.repourlrepourl:https://repository.unab.edu.cospa
dc.identifier.urihttp://hdl.handle.net/20.500.12749/27540
dc.language.isospaspa
dc.publisher.facultyFacultad Ingenieríaspa
dc.publisher.grantorUniversidad Autónoma de Bucaramanga UNABspa
dc.publisher.programPregrado Ingeniería Mecatrónicaspa
dc.publisher.programidIMK-1789
dc.relation.references[1] J. A. Ramirez Ramos, J. C. Sotelo, and E. B. Gualdron, “Detección y clasificación de anomalías en hojas de cannabis haciendo uso de visión computarizada,” 2020 IX International Congress of Mechatronics Engineering and Automation (CIIMA), pp. 1–4, Nov. 2020, doi: 10.1109/ciima50553.2020.9290319.spa
dc.relation.references[2] A. V. Panchal, S. C. Patel, K. Bagyalakshmi, P. Kumar, I. R. Khan, and M. Soni, “Image-based Plant Diseases Detection using Deep Learning,” Materials Today: Proceedings, vol. 80, pp. 3500–3506, 2023, doi: 10.1016/j.matpr.2021.07.281.spa
dc.relation.references[3] R. Rattan and J. O. Shiney, “Comparison and Analysis of CNN Based Algorithms for Plant Disease Identification,” 2023 Advanced Computing and Communication Technologies for High Performance Applications (ACCTHPA), vol. 893, pp. 1–6, Jan. 2023, doi: 10.1109/accthpa57160.2023.10083342.spa
dc.relation.references[4] O. Mzoughi and I. Yahiaoui, “Deep learning-based segmentation for disease identification,” Ecological Informatics, vol. 75, p. 102000, Jul. 2023, doi: 10.1016/j.ecoinf.2023.102000.spa
dc.relation.references[5] M. Shoaib et al., “Deep learning-based segmentation and classification of leaf images for detection of tomato plant disease,” Frontiers in Plant Science, vol. 13, Oct. 2022, doi: 10.3389/fpls.2022.1031748.spa
dc.relation.references[6] M. Shoaib et al., “A deep learning-based model for plant lesion segmentation, subtype identification, and survival probability estimation,” Frontiers in Plant Science, vol. 13, Dec. 2022, doi: 10.3389/fpls.2022.1095547.spa
dc.relation.references[7] L. Lei, Z. Wang, R. Wang, T. Shen, Q. Yang, and L. Yang, “Improved Deeplabv3+ Method for the Panax Notoginseng Disease Segmentation,” 2023 11th International Conference on Information Systems and Computing Technology (ISCTech), pp. 285–289, Jul. 2023, doi: 10.1109/isctech60480.2023.00058.spa
dc.relation.references[8] S. Abinaya, K. U. Kumar, and A. S. Alphonse, “Cascading Autoencoder With Attention Residual U-Net for Multi-Class Plant Leaf Disease Segmentation and Classification,” IEEE Access, vol. 11, pp. 98153–98170, 2023, doi: 10.1109/access.2023.3312718.spa
dc.relation.references[9] O. Ronneberger, P. Fischer, and T. Brox, “U-NET: Convolutional Networks for Biomedical Image Segmentation,” arXiv (Cornell University), Jan. 2015, doi: 10.48550/arxiv.1505.04597.spa
dc.relation.references[10] K. He, X. Zhang, S. Ren, and J. Sun, “Deep residual learning for image recognition,” arXiv (Cornell University), Jan. 2015, doi: 10.48550/arxiv.1512.03385.spa
dc.relation.references[11] T.-Y. Lin et al., “Microsoft COCO: Common Objects in context,” arXiv (Cornell University), Jan. 2014, doi: 10.48550/arxiv.1405.0312.spa
dc.relation.references[12] S. Li, L. Song, X. Wu, Z. Hu, Y.-M. Cheung, and X. Yao, “Multi-Class imbalance classification based on data distribution and adaptive weights,” IEEE Transactions on Knowledge and Data Engineering, vol. 36, no. 10, pp. 5265–5279, Apr. 2024, doi: 10.1109/tkde.2024.3384961.spa
dc.relation.references[13] D. C. Liyanage, R. Hudjakov, and M. Tamre, “Hyperspectral Imaging Methods Improve RGB Image Semantic Segmentation of Unstructured Terrains,” 2020 International Conference Mechatronic Systems and Materials (MSM), Jul. 2020, doi: 10.1109/msm49833.2020.9201738.spa
dc.relation.references[14] Gunawan, M. F. Fadillah, E. Prakasa, B. Sugiarto, T. N. Suharsono, and R. N. Sukmana, “Road Segmentation with U-Net Architecture Using Jetson AGX Xavier For Autonomous Vehicle,” 2022 16th International Conference on Telecommunication Systems, Services, and Applications (TSSA), vol. 8, pp. 1–5, Oct. 2022, doi: 10.1109/tssa56819.2022.10063891.spa
dc.relation.references[15] C. A. R. Goyzueta, J. E. C. De la Cruz, and W. A. M. Machaca, “Integration of U-Net, ResU-Net and DeepLab Architectures with Intersection Over Union metric for Cells Nuclei Image Segmentation,” 2021 IEEE Engineering International Research Conference (EIRCON), pp. 1–4, Oct. 2021, doi: 10.1109/eircon52903.2021.9613150.spa
dc.relation.uriapolohttps://apolo.unab.edu.co/en/persons/hernando-gonzalez-acevedospa
dc.rights.accessrightsinfo:eu-repo/semantics/openAccessspa
dc.rights.creativecommonsAtribución-NoComercial-SinDerivadas 2.5 Colombia*
dc.rights.localAbierto (Texto Completo)spa
dc.rights.urihttp://creativecommons.org/licenses/by-nc-nd/2.5/co/*
dc.subject.keywordsMechatronicspa
dc.subject.keywordsDiseasesspa
dc.subject.keywordsCropspa
dc.subject.keywordsDeep learningspa
dc.subject.keywordsComputer visionspa
dc.subject.keywordsConvolutional neural networks (CNNs)spa
dc.subject.keywordsSemantic segmentationspa
dc.subject.keywordsTransfer learningspa
dc.subject.keywordsGraphical interfacespa
dc.subject.keywordsNatural computingspa
dc.subject.keywordsArtificial intelligencespa
dc.subject.keywordsAlgorithmspa
dc.subject.keywordsDeep learning (Machine learning)spa
dc.subject.keywordsMachine theoryspa
dc.subject.lembMecatrónicaspa
dc.subject.lembComputación naturalspa
dc.subject.lembInteligencia artificialspa
dc.subject.lembAlgoritmospa
dc.subject.lembAprendizaje profundo (Aprendizaje automático)spa
dc.subject.lembTeoría de las máquinasspa
dc.subject.proposalEnfermedadesspa
dc.subject.proposalCultivospa
dc.subject.proposalCannabisspa
dc.subject.proposalAprendizaje profundospa
dc.subject.proposalVisión artificialspa
dc.subject.proposalRedes neuronales convolucionales (CNNs)spa
dc.subject.proposalSegmentación semánticaspa
dc.subject.proposalU-Netspa
dc.subject.proposalAprendizaje por transferenciaspa
dc.subject.proposalInterfaz gráficaspa
dc.titleSistema de seguimiento de crecimiento de cultivo de cannabis utilizando técnicas de visión artificialspa
dc.title.translatedSystem for monitoring the growth of cannabis crops using computer vision techniquesspa
dc.type.coarhttp://purl.org/coar/resource_type/c_7a1f
dc.type.coarversionhttp://purl.org/coar/version/c_ab4af688f83e57aaspa
dc.type.driverinfo:eu-repo/semantics/bachelorThesis
dc.type.hasversioninfo:eu-repo/semantics/acceptedVersion
dc.type.localTrabajo de Gradospa
dc.type.redcolhttp://purl.org/redcol/resource_type/TP

Archivos

Bloque original

Mostrando 1 - 2 de 2
Cargando...
Miniatura
Nombre:
Tesis.pdf
Tamaño:
11.58 MB
Formato:
Adobe Portable Document Format
Descripción:
Tesis
Cargando...
Miniatura
Nombre:
Licencia.pdf
Tamaño:
458.79 KB
Formato:
Adobe Portable Document Format
Descripción:
Licencia

Bloque de licencias

Mostrando 1 - 1 de 1
Cargando...
Miniatura
Nombre:
license.txt
Tamaño:
829 B
Formato:
Item-specific license agreed upon to submission
Descripción: