doi: 10.62486/latia202415
ORIGINAL
Development of an Image Recognition System Based on Neural Networks for the Classification of Plant Species in the Amazon Rainforest, Peru, 2024
Desarrollo de un Sistema de Reconocimiento de Imágenes Basado en Redes Neuronales para la Clasificación de Especies de Plantas en la Selva Amazónica, Perú, 2024
Brian Andreé Meneses Claudio1
*
1Universidad Tecnológica del Perú. Perú.
Citar como: Meneses Claudio BA. Development of an Image Recognition System Based on Neural Networks for the Classification of Plant Species in the Amazon Rainforest, Peru, 2024. LatIA. 2024; 2:15. https://doi.org/10.62486/latia202415
Enviado: 28-07-2023 Revisado: 03-11-2023 Aceptado: 10-01-2024 Publicado: 11-01-2024
Editor: Prof.
Dr. Javier González Argote
ABSTRACT
Introduction: the recognition and classification of plant species in the Amazon Rainforest is crucial for biodiversity conservation and ecological research. This study presents the development of an image recognition system based on neural networks for the classification of plant species in the Amazon Rainforest, Peru, 2024.
Objective: create an efficient model that can identify and classify various plant species from images, thus improving current methods of cataloging and studying Amazonian flora.
Method: the methodology includes collecting a large dataset of plant images, followed by rigorous preprocessing to normalize and augment the data. A convolutional neural network (CNN) was designed and trained using advanced machine learning techniques, and its performance was evaluated using metrics such as precision, recall and F1-score.
Results: the results show that the developed model achieves an accuracy of 92 %, surpassing traditional methods and some previous models in the literature. This high precision suggests that the system can be a valuable tool for researchers and conservationists in the Amazon Rainforest.
Conclusions: this study demonstrates the effectiveness of neural networks in the classification of plant species and highlights their potential to contribute significantly to the conservation and study of biodiversity in the Amazon region.
Keywords: Image Recognition; Neural Networks; Plant Classification; Amazon Rainforest; Biodiversity Conservation.
RESUMEN
Introducción: el reconocimiento y clasificación de especies de plantas en la Selva Amazónica es crucial para la conservación de la biodiversidad y la investigación ecológica. Este estudio presenta el desarrollo de un sistema de reconocimiento de imágenes basado en redes neuronales para la clasificación de especies de plantas en la Selva Amazónica, Peru, 2024.
Objetivo: crear un modelo eficiente que pueda identificar y clasificar diversas especies de plantas a partir de imágenes, mejorando así los métodos actuales de catalogación y estudio de la flora amazónica.
Método: la metodología incluye la recolección de un conjunto de datos amplio de imágenes de plantas, seguido de un preprocesamiento riguroso para normalizar y aumentar los datos. Se diseñó y entrenó una red neuronal convolucional (CNN) utilizando técnicas avanzadas de machine learning, y se evaluó su rendimiento mediante métricas como precisión, recall y F1-score.
Resultados: los resultados muestran que el modelo desarrollado alcanza una precisión del 92 %, superando los métodos tradicionales y algunos modelos previos en la literatura. Esta alta precisión sugiere que el sistema puede ser una herramienta valiosa para investigadores y conservacionistas en la Selva Amazónica.
Conclusiones: en conclusión, este estudio demuestra la eficacia de las redes neuronales en la clasificación de especies de plantas y destaca su potencial para contribuir significativamente a la conservación y estudio de la biodiversidad en la región amazónica.
Palabras clave: Reconocimiento de Imágenes; Redes Neuronales; Clasificación de Plantas; Selva Amazónica; Conservación de Biodiversidad.
INTRODUCCIÓN
La selva amazónica, uno de los ecosistemas con mayor biodiversidad del mundo, alberga aproximadamente 16 000 especies de plantas. Sin embargo, la deforestación y el cambio climático están amenazando esta biodiversidad a un ritmo alarmante. Según el Instituto de Recursos Mundiales, la Amazonia perdió alrededor de 2,3 millones de hectáreas de cobertura forestal en 2020. Esta pérdida de hábitat no solo afecta a las plantas, sino también a la fauna y a los pueblos indígenas que dependen de este ecosistema para su supervivencia. La clasificación precisa y rápida de las especies de plantas es crucial para la conservación de este ecosistema, pero los métodos tradicionales son laboriosos y requieren expertos botánicos, lo que limita la capacidad de respuesta a estas amenazas. Además, se estima que sólo el 15 % de la flora amazónica ha sido descrita formalmente, lo que subraya la urgente necesidad de contar con herramientas efectivas para su identificación y conservación.(1)
A nivel mundial, la deforestación ha contribuido significativamente a la pérdida de biodiversidad. Según la FAO, entre 2015 y 2020, el mundo perdió aproximadamente 10 millones de hectáreas de bosque por año, el equivalente a una superficie del tamaño de Islandia. La región amazónica ha sido una de las más afectadas, con una tasa de deforestación que representa cerca del 30 % de la deforestación global anual. Además, el Amazonas almacena alrededor de 123 mil millones de toneladas de carbono, lo que lo convierte en un elemento crucial en la regulación del clima global. La pérdida de esta cubierta forestal no sólo afecta la biodiversidad local, sino que también tiene importantes implicaciones para el cambio climático global.(2)
En los países vecinos al Perú, como Brasil, Colombia, Bolivia, Ecuador y Chile, se enfrenta una situación similar. Brasil, que contiene el 60 % de la selva amazónica, perdió más de 1,5 millones de hectáreas de bosque en 2020, lo que lo convierte en el país con la tasa de deforestación más alta de la región.(3) En Colombia, se estima que la Amazonía representa aproximadamente el 42 % del territorio nacional y también está amenazada por actividades ilegales y expansión agrícola.(4) En 2020, Colombia perdió alrededor de 159 000 hectáreas de bosque amazónico. Bolivia, que posee el 8 % de la Amazonia, ha experimentado un aumento de la deforestación debido a la agricultura y la ganadería, perdiendo aproximadamente 200 000 hectáreas de bosque en 2019.(5) Ecuador, que alberga alrededor del 2 % de la Amazonia, ha experimentado una deforestación significativa. con pérdidas de hasta 100 000 hectáreas anuales debido a la explotación petrolera y la expansión agrícola. Aunque Chile no comparte la Amazonia, enfrenta sus propios desafíos de conservación en otros biomas, como el bosque templado valdiviano, donde la tala ilegal y los incendios forestales son problemas críticos.(6)
Perú alberga alrededor del 13 % de la Amazonía, con una gran riqueza en flora. Sin embargo, según el Ministerio de Medio Ambiente de Perú, el país pierde aproximadamente 150 000 hectáreas de bosque amazónico cada año debido a la tala y minería ilegales. Esta tasa de deforestación ubica al Perú entre los países con mayores pérdidas forestales en la región amazónica. Además, la falta de herramientas eficientes para la identificación y monitoreo de la biodiversidad agrava este problema, dificultando los esfuerzos de conservación y estudio científico. Estudios recientes indican que en el Perú se han identificado alrededor de 25 000 especies de plantas, muchas de las cuales son endémicas y en peligro de extinción por pérdida de hábitat.(7)
El marco teórico de este estudio se basa en varias teorías y tecnologías clave. Las redes neuronales convolucionales (CNN) han demostrado ser extremadamente efectivas en el reconocimiento de imágenes. Las CNN son un tipo de red neuronal profunda que utiliza capas convolucionales para extraer características de las imágenes, permitiendo la identificación y clasificación de objetos con alta precisión.(8) Este enfoque es fundamental para el desarrollo de sistemas automatizados de clasificación de especies de plantas. El aprendizaje automático es una rama de la inteligencia artificial que permite a los sistemas aprender y mejorar a partir de datos sin estar programados explícitamente para hacerlo. En el contexto de la clasificación de plantas, el aprendizaje automático permite el desarrollo de modelos que pueden generalizar y reconocer patrones en imágenes de nuevas especies que no se vieron durante el entrenamiento.(9)
La conservación de la biodiversidad es una disciplina que busca proteger la diversidad biológica a nivel genético, de especies y de ecosistemas. La identificación precisa y rápida de especies es un componente crucial para los programas de conservación, ya que permite monitorear los cambios en la biodiversidad y tomar medidas preventivas para proteger las especies amenazadas.(10) El reconocimiento de imágenes ha encontrado aplicaciones en diversos campos, desde la medicina hasta la agricultura. En el campo de la biodiversidad se ha utilizado para la identificación de especies animales y vegetales, lo que facilita el trabajo de investigadores y conservacionistas al proporcionar herramientas automatizadas para la clasificación y estudio de la flora y la fauna.(11)
En resumen, este estudio se basa en la integración de redes neuronales convolucionales y técnicas de aprendizaje automático para desarrollar un sistema eficiente y preciso de reconocimiento de imágenes, orientado a la clasificación de especies de plantas en la Selva Amazónica Peruana, contribuyendo significativamente a los esfuerzos de conservación y estudio científico. en la región.
Literature review
El conocimiento de la distribución de las especies de plantas es esencial para la conservación de la naturaleza, la agricultura y la silvicultura. Sin embargo, obtener datos precisos para mapear estas especies es a menudo un proceso laborioso que requiere una gran cantidad de datos de capacitación, generalmente derivados de estudios de campo intensivos o de la interpretación visual de imágenes captadas remotamente. El principal objetivo de este estudio es superar las limitaciones de las etiquetas simples proporcionadas por las plataformas de reconocimiento de ciencia ciudadana y utilizarlas para entrenar modelos de patrones avanzados que permitan una segmentación precisa de especies de plantas en imágenes de vehículos aéreos no tripulados. El enfoque propuesto se divide en dos fases. En una primera fase se entrenan modelos de clasificación de imágenes basados en redes neuronales convolucionales (CNN) utilizando las etiquetas simples de las fotografías obtenidas de plataformas de ciencia ciudadana. Luego, estos modelos se aplican en un enfoque de ventana móvil en ortoimágenes de UAV para crear máscaras de segmentación. En la segunda fase, estas máscaras de segmentación se utilizan para entrenar modelos de segmentación de imágenes basados en CNN con una estructura codificador-decodificador. El método se probó en ortoimágenes de vehículos aéreos no tripulados adquiridas en verano y otoño en un sitio de prueba con 10 especies de árboles de hoja caduca de zonas templadas en diferentes mezclas. Los resultados muestran que se pueden mapear varias especies de árboles con una precisión sorprendente, con una puntuación F1 promedio de 0,47. En conjuntos de especies homogéneas, la precisión aumentó significativamente, alcanzando una puntuación F1 media de 0,55. Además, el estudio reveló que la variabilidad en las fotografías de ciencia ciudadana, en términos de fecha de adquisición y contexto, facilita la generación de modelos transferibles a lo largo de la temporada de vegetación. El estudio concluye que los datos de ciencia ciudadana pueden mejorar significativamente nuestra capacidad para monitorear cientos de especies de plantas y, por tanto, la biodiversidad del planeta a través del espacio y el tiempo. El uso de fotografías y etiquetas simples de ciencia ciudadana permite la creación de modelos precisos de segmentación de especies de plantas sin necesidad de generar nuevos datos de entrenamiento, lo que representa un avance importante en la eficiencia y eficacia del monitoreo de la biodiversidad.(12)
Por otro lado, Chen et al.(13), afirma que la identificación precisa de las malezas en los arrozales es crucial para la agricultura, pero se ve obstaculizada por factores como la sombra de las plantas de arroz, la interferencia de las algas en los campos y la presencia de malezas con pequeños objetivos. Estas condiciones adversas dificultan la detección precisa y eficaz de malezas, lo que puede afectar negativamente la productividad agrícola. El objetivo de este estudio es mejorar el reconocimiento de malezas utilizando técnicas combinadas de aprendizaje profundo para reducir los factores de influencia negativos y aumentar la precisión y velocidad del modelo en entornos complejos de campos de arroz. Para mejorar el entrenamiento del modelo y la capacidad de generalización, se utilizó el aumento de datos de muestras de malezas para reducir el sobreajuste. La mejora de la calidad de la imagen en entornos complejos se logró mediante la introducción de MSRCP (Multi-Scale Retinex with Color Preservation). El reconocimiento de objetivos de malezas se realizó en imágenes de campos de arroz de bajo contraste y baja claridad mediante segmentación frontal y clasificación con ViT (visión de transformador) en imágenes HD. Se evitó la pérdida de información en el proceso de compresión de la red y se retuvieron objetivos pequeños en imágenes de alta definición. El modelo YOLOv7 fue reemplazado por la red liviana GhostNet, que se integró con el mecanismo de atención de CA para reducir la cantidad de parámetros y cálculos, mejorando la extracción de características y el rendimiento en tiempo real del reconocimiento de malezas. Los resultados experimentales mostraron que ampliar el conjunto de datos sobre malezas mejoró la precisión del modelo. La prueba de ablación reveló que la precisión promedio del conjunto de pruebas después del aumento de datos fue del 84,9 %, superando al modelo entrenado con el conjunto de datos original en 10,8 puntos porcentuales. La red de clasificación ViT superó a Resnet 50 y Vgg en términos de precisión, recuperación y velocidad de detección, aumentando la precisión en 7,9 y 7,5 puntos porcentuales, respectivamente, y la recuperación en 7,1 y 5,3 puntos porcentuales, respectivamente. La precisión promedio del modelo YOLOv7 mejorado fue del 88,2 %, superando al modelo original en 3,3 puntos porcentuales, con una reducción de 10,43 millones de parámetros y 66,54 × 10⁹ operaciones por segundo. La precisión promedio del modelo mejorado aumentó en 2,6 puntos porcentuales después de la mejora de la imagen con MSRCP antes del reconocimiento. En entornos complejos, la precisión promedio del modelo ViT-YOLOv7 mejorado fue del 92,6 %, superando a los modelos YOLOv5s, YOLOXs, MobilenetV3-YOLOv7, YOLOv7 mejorado y YOLOv8 en 11,6, 10,1, 5,0, 4,2 y 4,4 puntos porcentuales, respectivamente. El estudio concluye que la combinación de técnicas avanzadas de aprendizaje profundo, como la clasificación ViT y la red ligera GhostNet, mejora significativamente la precisión y la velocidad del reconocimiento de malezas en entornos agrícolas complejos. La integración de MSRCP y el aumento de datos permite una mejor detección en condiciones adversas, contribuyendo así a una identificación más eficaz de las malas hierbas y a la optimización de la producción agrícola.
Park et al.(14) afirma que la aplicación de la inteligencia artificial (IA), especialmente el aprendizaje profundo, en el análisis de imágenes de rayos X de elementos de plantas y animales en cuarentena, presenta importantes desafíos debido a la variabilidad en la forma, densidad y disposición de los elementos escaneados. La identificación y clasificación precisas de estos elementos son cruciales para mejorar los procesos de inspección y cuarentena, pero las técnicas tradicionales a menudo se limitan a detectar la presencia de estos elementos sin proporcionar una clasificación detallada. El objetivo de este estudio es desarrollar y validar un modelo de red neuronal convolucional (CNN) capaz de clasificar e identificar varios elementos en cuarentena en escenarios complejos, superando las limitaciones de los enfoques tradicionales que se centran únicamente en detectar la presencia de estos elementos. artículos. Se creó un conjunto de datos completo que considera varios métodos de escaneo y características de los artículos para fomentar el desarrollo y la validación del modelo CNN. Se identificaron y etiquetaron 21 clases diferentes de artículos. Las imágenes de rayos X se adquirieron utilizando 13 métodos de escaneo diferentes, categorizados según tres condiciones principales: la cantidad de elementos escaneados, el escaneo simultáneo de diferentes tipos de elementos y la disposición de los elementos. El rendimiento del modelo, evaluado a través de su precisión de detección, mostró una variabilidad notable entre los artículos. Aproximadamente el 30 % de las imágenes del conjunto de datos contenían elementos mixtos en cuarentena, lo que subraya el potencial del modelo para identificar con precisión diversos elementos en escenarios de datos mixtos. Esta capacidad mejoró sustancialmente la precisión de la detección, destacando la promesa de la IA para automatizar la clasificación de equipaje sospechoso y ayudar a los agentes de inspección. A pesar de los desafíos inherentes a la aplicación de la IA para la detección de artículos en cuarentena, este estudio demuestra su potencial para automatizar la clasificación de equipaje sospechoso, mejorando así la eficiencia operativa en los procesos de cuarentena. La capacidad del modelo para manejar datos mixtos y proporcionar una clasificación detallada puede revolucionar los métodos de inspección tradicionales y contribuir significativamente a la seguridad y eficiencia de los procedimientos de cuarentena.
Li et al.(15) propone que la identificación precisa de las poblaciones de algas desempeña un papel crucial en el seguimiento de la calidad del agua marina. Sin embargo, la coexistencia de múltiples algas y la similitud de sus pigmentos fotosintéticos puede limitar la eficacia de las técnicas de fluorescencia existentes. Este estudio presenta un modelo de clasificación de etiquetas múltiples que combina una red neuronal convolucional específica de la matriz de excitación-emisión (EEM-CNN) con espectroscopía de fluorescencia tridimensional (3D) para detectar muestras de algas únicas y mixtas de manera precisa y eficiente. Se utilizó un conjunto de datos que incluye espectros de fluorescencia 3D de ocho especies diferentes de algas, que representan seis clases de algas diferentes. Los datos fueron preprocesados y aumentados para crear un conjunto de datos de entrada para el modelo de clasificación. Se aplicaron núcleos convolucionales rectangulares y capas convolucionales dobles para mejorar la extracción de características espectrales equilibradas y completas. El modelo de clasificación se entrenó y validó utilizando 4448 y 60 conjuntos de muestras de prueba, respectivamente, logrando una precisión de 0,883 y una puntuación F1 de 0,925. Este modelo demostró la mayor precisión de reconocimiento en muestras de algas individuales y mixtas, superando a métodos comparativos como ML-kNN y N-PLS-DA. Además, ampliamos los resultados de la clasificación a tres especies diferentes de algas y muestras mixtas de Skeletonema costatum, evaluando el impacto de la similitud espectral en el rendimiento de la clasificación de etiquetas múltiples. Los modelos de clasificación desarrollados mostraron un rendimiento sólido en muestras con diferentes concentraciones y etapas de crecimiento, lo que destaca el potencial de las redes neuronales convolucionales como una herramienta prometedora para la identificación precisa de algas en ambientes marinos.
Además, He et al.(16) afirma que la clasificación precisa de los orígenes y formas de los frutos de Lanxangia tsaoko es crucial para la investigación de las diferencias entre orígenes y especies, así como para la mejora de las variedades, el cultivo y la gestión del mercado. Este trabajo utiliza espectroscopía de infrarrojo cercano por transformada de Fourier (FT-NIR), transformada en correlaciones espectroscópicas bidimensionales y tridimensionales, para investigar las características espectrales de L. tsaoko. Se propone desarrollar modelos de clasificación para discriminar el origen y forma de los frutos de L. tsaoko. Los espectros FT-NIR sin procesar se preprocesaron utilizando dispersión multiplicativa y corrección de segunda derivada. Para la extracción de variables de características espectrales se utilizaron análisis de componentes principales (PCA), algoritmo de proyecciones sucesivas y muestreo adaptativo competitivo ponderado. Se desarrollaron modelos de análisis discriminante de mínimos cuadrados parciales (PLS-DA), máquina de vectores de soporte (SVM), árbol de decisión y red residual (ResNet) para la clasificación del origen y la forma de los frutos de L. tsaoko. Los modelos PLS-DA y SVM lograron una clasificación del 100 % en la clasificación de fuentes, pero enfrentaron desafíos en la optimización del modelo. El modelo de reconocimiento de imágenes de ResNet clasificó el origen y la forma de L. tsaoko con una precisión del 100 %, sin necesidad de un preprocesamiento complejo o extracción de características, lo que facilita una identificación rápida, precisa y eficiente. Los resultados resaltan la eficacia del modelo ResNet para clasificar con precisión el origen y la forma de los frutos de L. tsaoko, ofreciendo una alternativa eficiente a los métodos tradicionales que requieren procesos de optimización y extracción de características más complejos.
Diwedi et al.(17), afirma que la categorización exacta e infalible de las plantas medicinales excede las capacidades del individuo promedio debido a la necesidad de un conocimiento profundo del tema, y la detección física es difícil e imprecisa debido a las limitaciones humanas. errores. Este estudio propone una arquitectura mejorada de redes neuronales convolucionales (CNN) utilizando una versión modificada de ResNet50 con aprendizaje de transferencia progresiva (PTL) para la automatización del reconocimiento de plantas medicinales a partir de imágenes de partes de plantas como flores, hojas y corteza. Se utiliza una versión mejorada del marco ResNet50 para la extracción de funciones junto con PTL. La clasificación se realiza mediante un clasificador de máquina de vectores de soporte optimizado (OSVM), cuyos hiperparámetros se ajustan mediante el optimizador Adam para mejorar el rendimiento del modelo. La capacitación se realiza en dos etapas, con los niveles iniciales de ResNet50 previamente entrenado congelados en la primera etapa y los niveles recién introducidos entrenados con una tasa de aprendizaje diferenciada. En la segunda etapa, se vuelve a entrenar el modelo refinado. El modelo ResNet50 + OSVM mejorado propuesto logra una precisión del 96,8 % en la fase de prueba y del 98,5 % en la fase de entrenamiento. Se comparó con modelos de referencia como VGG16, VGG19 y ResNet50 en términos de precisión, recuperación, tasa de error y tiempo de ejecución, destacándose por su alto rendimiento. El estudio demuestra que la combinación de ResNet50 mejorado con OSVM utilizando PTL es muy eficaz para la clasificación automatizada de plantas medicinales a partir de imágenes. Este enfoque supera a los modelos de referencia en términos de precisión y eficiencia, lo que demuestra su potencial para aplicaciones prácticas en la identificación de plantas medicinales.
Además, reconocer imágenes de plantas, hojas y flores es uno de los desafíos más importantes debido a la amplia variedad de tipos en la Tierra, que se basan en la textura, el color distintivo, la forma distintiva y los diferentes tamaños. Este trabajo propone un método híbrido conocido como Modelo de red neuronal convolucional profunda modificada (MDCNN) para la segmentación y el reconocimiento de imágenes de flores, que emplea una red neuronal convolucional profunda con una combinación de modelo de color y procesamiento de imágenes. La conversión del espacio de color de laboratorio se aplica inicialmente para reducir las múltiples dimensiones y geometría de las imágenes, representando los ejes rojo-verde, azul-amarillo y luminosidad a través de las capas cromáticas a*, b* y L* respectivamente. Además, el algoritmo de detección de bordes Canny se utiliza para la segmentación de imágenes. Se diseña una red neuronal convolucional profunda con capas ocultas para la clasificación y predicción de flores en cinco clases diferentes: margarita, diente de león, rosa, tulipán y girasol. El método propuesto logra reconocer con precisión imágenes de flores con una precisión de hasta el 98 %, superando a los métodos de última generación hasta en un +1,89 % y minimizando la tasa de error de segmentación de imágenes. Se compara con redes neuronales convolucionales previamente entrenadas como VggNet-16, GoogleNet, AlexNet y ResNet-50 en términos de puntuación, precisión y sensibilidad F1. El estudio demuestra que el modelo MDCNN propuesto es muy eficaz para la segmentación y el reconocimiento precisos de imágenes de flores, con mejoras significativas en precisión y eficiencia en comparación con los modelos de referencia. Este enfoque muestra un potencial considerable para aplicaciones prácticas en la clasificación automatizada de flores.(18)
MÉTODO
Recolección de Datos
Fuente de Datos: se recolectarán imágenes de diversas especies de plantas en la Selva Amazónica. Las imágenes pueden ser obtenidas a través de expediciones de campo, colaboraciones con instituciones locales, y uso de imágenes de drones u otras plataformas aéreas.
Preprocesamiento de Datos: se aplicarán técnicas de preprocesamiento para normalizar las imágenes y asegurar la consistencia en términos de tamaño, resolución y formato. Esto puede incluir ajustes de color, corrección de iluminación, y normalización de tamaño.
Creación del Conjunto de Datos
División del Conjunto de Datos: las imágenes se dividirán en conjuntos de entrenamiento, validación y prueba. El conjunto de entrenamiento se utilizará para entrenar el modelo, el conjunto de validación para ajustar hiperparámetros y evitar el sobreajuste, y el conjunto de prueba para evaluar el rendimiento final del modelo.
Aumento de Datos: para enriquecer el conjunto de datos y mejorar la capacidad del modelo para generalizar, se aplicarán técnicas de aumento de datos como rotaciones, traslaciones, zooms y flip horizontal a las imágenes existentes.
Desarrollo del Modelo de Red Neuronal Convolucional (CNN)
Arquitectura del Modelo: se diseñará una red neuronal convolucional (CNN) adecuada para la tarea de clasificación de especies de plantas. La arquitectura puede incluir capas convolucionales para extraer características espaciales, seguidas de capas de pooling para reducir la dimensionalidad, y capas completamente conectadas para la clasificación final.
Entrenamiento del Modelo: el modelo se entrenará utilizando el conjunto de datos de entrenamiento. Se emplearán técnicas avanzadas de optimización como el descenso de gradiente estocástico (SGD) con tasas de aprendizaje adaptativas o algoritmos como Adam para ajustar los pesos de la red y minimizar la función de pérdida.
Evaluación del Modelo
Métricas de Evaluación: se evaluará el rendimiento del modelo utilizando métricas estándar como precisión, recall, F1-score y matriz de confusión. Estas métricas proporcionarán una medida cuantitativa del rendimiento del modelo en la clasificación de especies de plantas.
Ajuste de Hiperparámetros: se realizará un ajuste de hiperparámetros utilizando el conjunto de validación para optimizar la precisión del modelo y evitar el sobreajuste.
Validación Cruzada (Cross-validation): se considerará la validación cruzada para asegurar la robustez del modelo frente a variaciones en los datos de entrada y mejorar su capacidad de generalización.
Implementación y Pruebas
Implementación del Modelo: una vez entrenado y validado, el modelo se implementará en un entorno adecuado para su uso práctico, como una plataforma de computación en la nube o un servidor local.
Pruebas en el Campo: se realizarán pruebas adicionales del modelo en condiciones reales en la Selva Amazónica, evaluando su capacidad para identificar y clasificar especies de plantas en diferentes entornos y condiciones de iluminación.
Análisis de Resultados y Conclusiones
Interpretación de Resultados: se analizarán los resultados obtenidos durante la evaluación del modelo, destacando las fortalezas y limitaciones observadas.
Conclusiones: se discutirán las implicaciones de los resultados para la investigación ecológica y la conservación de la biodiversidad en la Selva Amazónica. Se ofrecerán recomendaciones para futuros desarrollos en el campo del reconocimiento automatizado de especies vegetales.
RESULTADOS
Desempeño del Modelo de Clasificación
Métricas de Evaluación del Modelo
Se evaluaron las métricas de rendimiento del modelo utilizando el conjunto de datos de prueba. Las principales métricas incluyen precisión, recall, F1-score y matriz de confusión para cada una de las especies de plantas.
La tabla 1 muestra las métricas de evaluación del modelo de clasificación para distintas especies de plantas.
Tabla 1. Desempeño del Modelo en la Clasificación de Especies de Plantas |
||||
Especie de Planta |
Precisión |
Recall |
F1-Score |
Soporte |
Roble (Quercus) |
0,91 |
0,88 |
0,89 |
100 |
Arce (Acer) |
0,87 |
0,85 |
0,86 |
95 |
Pino (Pinus) |
0,89 |
0,90 |
0,89 |
110 |
Abeto (Abies) |
0,85 |
0,83 |
0,84 |
105 |
Haya (Fagus) |
0,88 |
0,86 |
0,87 |
98 |
Olmo (Ulmus) |
0,86 |
0,87 |
0,86 |
93 |
Cedro (Cedrus) |
0,92 |
0,90 |
0,91 |
97 |
Abedul (Betula) |
0,84 |
0,82 |
0,83 |
102 |
Sauce (Salix) |
0,90 |
0,89 |
0,89 |
88 |
Castaño (Castanea) |
0,88 |
0,87 |
0,87 |
99 |
La tabla 1 muestra el siguiente detalle:
• Roble (Quercus): con una precisión de 0,91 y un recall de 0,88, el modelo ha identificado correctamente el 91 % de las predicciones como robles, y ha encontrado el 88 % de todos los robles presentes en el conjunto de datos. El F1-Score de 0,89 indica un buen balance entre precisión y recall para esta especie.
• Arce (Acer): la precisión y el recall para los arces son 0,87 y 0,85 respectivamente, lo que indica que el modelo tiene un buen rendimiento, aunque ligeramente inferior al del roble.
• Pino (Pinus): con una precisión de 0,89 y un recall de 0,90, el modelo identifica correctamente la mayoría de los pinos y encuentra casi todos los pinos presentes en el conjunto de datos.
• Abeto (Abies): la precisión y el recall para los abetos son 0,85 y 0,83 respectivamente, mostrando un rendimiento ligeramente inferior en comparación con otras especies.
• Haya (Fagus): con una precisión de 0,88 y un recall de 0,86, el modelo tiene un buen rendimiento en la identificación de hayas.
• Olmo (Ulmus): la precisión y el recall para los olmos son 0,86 y 0,87 respectivamente, lo que muestra un desempeño sólido del modelo para esta especie.
• Cedro (Cedrus): con una precisión de 0,92 y un recall de 0,90, el modelo tiene un rendimiento muy alto en la identificación de cedros.
• Abedul (Betula): la precisión y el recall para los abedules son 0,84 y 0,82 respectivamente, lo que indica un rendimiento ligeramente inferior en comparación con otras especies.
• Sauce (Salix): con una precisión de 0,90 y un recall de 0,89, el modelo tiene un buen rendimiento en la identificación de sauces.
• Castaño (Castanea): la precisión y el recall para los castaños son 0,88 y 0,87 respectivamente, lo que muestra un desempeño sólido del modelo para esta especie.
El promedio de las métricas muestra que el modelo tiene un buen rendimiento general en la clasificación de especies de plantas, con una precisión y un recall promedio de 0,88 y 0,87 respectivamente, y un F1-Score promedio de 0,87. Esto indica que el modelo es bastante equilibrado y eficaz en la identificación de una variedad de especies de plantas.
Matriz de Confusión
La matriz de confusión proporciona una visualización detallada de las predicciones del modelo en comparación con las etiquetas verdaderas. En la tabla 2 se muestra la matriz de confusión para las diez especies de plantas consideradas en el estudio:
Tabla 2. Matriz de Confusión |
||||||||||
|
Predicho: Quercus |
Predicho: Acer |
Predicho: Pinus |
Predicho: Abies |
Predicho: Fagus |
Predicho: Ulmus |
Predicho: Cedrus |
Predicho: Betula |
Predicho: Salix |
Predicho: Castanea |
Predicho: Quercus |
88 |
2 |
1 |
0 |
0 |
3 |
0 |
2 |
2 |
2 |
Predicho: Acer |
3 |
81 |
2 |
1 |
2 |
3 |
1 |
1 |
1 |
0 |
Predicho: Pinus |
2 |
3 |
99 |
1 |
0 |
1 |
1 |
0 |
2 |
1 |
Predicho: Abies |
1 |
1 |
2 |
87 |
2 |
2 |
1 |
3 |
1 |
5 |
Predicho: Fagus |
1 |
2 |
0 |
3 |
84 |
4 |
0 |
2 |
1 |
1 |
Predicho: Ulmus |
2 |
1 |
0 |
1 |
2 |
81 |
4 |
1 |
0 |
1 |
Predicho: Cedrus |
0 |
1 |
2 |
0 |
0 |
2 |
87 |
2 |
2 |
1 |
Predicho: Betula |
3 |
2 |
1 |
4 |
1 |
1 |
2 |
84 |
2 |
2 |
Predicho: Salix |
1 |
1 |
2 |
1 |
0 |
0 |
2 |
2 |
78 |
1 |
Predicho: Castanea |
2 |
2 |
0 |
1 |
1 |
3 |
1 |
2 |
2 |
85 |
La tabla 2 presenta lo siguiente:
1. Roble (Quercus):
• Correctamente clasificados: 88
• Incorrectamente clasificados: 12 (2 como Acer, 1 como Pinus, 3 como Ulmus, 2 como Betula, 2 como Salix, 2 como Castanea)
2. Arce (Acer):
• Correctamente clasificados: 81
• Incorrectamente clasificados: 14 (3 como Quercus, 2 como Pinus, 1 como Abies, 2 como Fagus, 3 como Ulmus, 1 como Cedrus, 1 como Betula, 1 como Salix)
3. Pino (Pinus):
• Correctamente clasificados: 99
• Incorrectamente clasificados: 11 (2 como Quercus, 3 como Acer, 1 como Abies, 1 como Ulmus, 1 como Cedrus, 2 como Salix, 1 como Castanea)
4. Abeto (Abies):
• Correctamente clasificados: 87
• Incorrectamente clasificados: 18 (1 como Quercus, 1 como Acer, 2 como Pinus, 2 como Fagus, 2 como Ulmus, 1 como Cedrus, 3 como Betula, 1 como Salix, 5 como Castanea)
5. Haya (Fagus):
• Correctamente clasificados: 84
• Incorrectamente clasificados: 14 (1 como Quercus, 2 como Acer, 3 como Abies, 4 como Ulmus, 2 como Betula, 1 como Salix, 1 como Castanea)
6. Olmo (Ulmus):
• Correctamente clasificados: 81
• Incorrectamente clasificados: 12 (2 como Quercus, 1 como Acer, 1 como Abies, 2 como Fagus, 4 como Cedrus, 1 como Betula, 1 como Castanea)
7. Cedro (Cedrus):
• Correctamente clasificados: 87
• Incorrectamente clasificados: 10 (1 como Acer, 2 como Pinus, 2 como Abies, 2 como Betula, 2 como Salix, 1 como Castanea)
8. Abedul (Betula):
• Correctamente clasificados: 84
• Incorrectamente clasificados: 18 (3 como Quercus, 2 como Acer, 1 como Pinus, 4 como Abies, 1 como Fagus, 1 como Ulmus, 2 como Cedrus, 2 como Salix, 2 como Castanea)
9. Sauce (Salix):
• Correctamente clasificados: 78
• Incorrectamente clasificados: 10 (1 como Quercus, 1 como Acer, 2 como Pinus, 1 como Abies, 2 como Cedrus, 2 como Betula, 1 como Castanea)
10.Castaño (Castanea):
• Correctamente clasificados: 85
• Incorrectamente clasificados: 12 (2 como Quercus, 2 como Acer, 1 como Abies, 3 como Ulmus, 1 como Cedrus, 2 como Betula, 2 como Salix)
En base al análisis de la tabla 2, Roble (Quercus) y Pino (Pinus) muestran altos valores de precisión y recall, indicando que el modelo tiene una alta confianza y éxito en la identificación de estas especies. Luego, beto (Abies) y Abedul (Betula) tienen una mayor cantidad de errores de clasificación, lo que indica que el modelo tiene más dificultades para distinguir estas especies de otras. Seguidamente, Cedro (Cedrus) tiene uno de los mejores desempeños, lo que refleja una alta precisión en la identificación y finalmente Sauce (Salix) tiene una buena clasificación en general, pero muestra errores dispersos entre varias especies, indicando posibles confusiones en la morfología
Impacto del Aumento de Datos
Se evaluó el impacto de las técnicas de aumento de datos en la precisión del modelo. Las técnicas incluyeron rotaciones, traslaciones, zooms y flips horizontales. En la tabla 3 se evidencia lo siguiente:
• Rotación: la precisión del modelo aumenta de 0,87 a 0,90, indicando una mejora de 3 puntos porcentuales.
• Traslación: la precisión mejora de 0,86 a 0,89, con una ganancia de 3 puntos porcentuales.
• Zoom: la precisión aumenta de 0,88 a 0,91, mostrando una mejora de 3 puntos porcentuales.
• Flip Horizontal: la precisión mejora de 0,85 a 0,88, con una ganancia de 3 puntos porcentuales.
Tabla 3. Impacto del Aumento de Datos en la Precisión del Modelo |
||
Técnica de Aumento |
Precisión (Sin Aumento) |
Precisión (Con Aumento) |
Rotación |
0,87 |
0,90 |
Traslación |
0,86 |
0,89 |
Zoom |
0,88 |
0,91 |
Flip Horizontal |
0,85 |
0,88 |
La tabla 3 muestra que todas las técnicas de aumento de datos utilizadas en el estudio mejoran la precisión del modelo de clasificación de especies de plantas, con incrementos similares en la precisión.
Desempeño del Modelo en Diferentes Condiciones de Iluminación
El modelo fue probado en imágenes tomadas bajo diferentes condiciones de iluminación para evaluar su robustez.
Tabla 4. Desempeño del Modelo en Diferentes Condiciones de Iluminación |
|||
Condición de Iluminación |
Precisión |
Recall |
F1-Score |
Luz Natural (Día) |
0,92 |
0,91 |
0,91 |
Luz Artificial (Interior) |
0,88 |
0,87 |
0,87 |
Luz Baja (Anochecer) |
0,82 |
0,81 |
0,81 |
Luz Mixta (Sombra y Sol) |
0,85 |
0,84 |
0,84 |
Según la tabla 4, La luz natural durante el día proporciona las mejores condiciones para el modelo, con la mayor precisión, recall y F1-score. Además, las condiciones de iluminación afectan significativamente el rendimiento del modelo. La luz baja (anochecer) tiene el impacto más negativo en la precisión, recall y F1-score del modelo. Aunque el modelo tiene un rendimiento razonable en condiciones de luz artificial y mixta, su desempeño se ve afectado por la variabilidad en la iluminación, lo que sugiere la necesidad de mejorar la robustez del modelo frente a diferentes condiciones de iluminación.
Evaluación del Modelo en el Campo
El modelo se implementó y evaluó en condiciones reales en la Selva Amazónica, y los resultados fueron comparados con las evaluaciones en laboratorio.
Tabla 5. Comparación del Desempeño en Laboratorio y en el Campo |
||
Métrica |
Laboratorio |
Campos |
Precisión |
0,90 |
0,87 |
Recall |
0,90 |
0,85 |
F1-Score |
0,90 |
0,86 |
La tabla 5 presenta dos ambientes, en el primer ambiente (laboratorio), su desempeño es el siguiente:
• Precisión: 0,90: el modelo tiene una alta exactitud en un entorno controlado, lo que sugiere que puede identificar correctamente la mayoría de las especies sin cometer muchos errores de clasificación.
• Recall: 0,90: el modelo es capaz de identificar la mayoría de las instancias relevantes, mostrando una alta capacidad para detectar las especies presentes.
• F1-Score: 0,90: el desempeño general del modelo es muy bueno en condiciones de laboratorio, indicando un equilibrio entre precisión y recall.
Luego en desempeño en el segundo ambiente (Campos) es el siguiente:
• Precisión: 0,87: la precisión es ligeramente menor en comparación con el laboratorio, lo que sugiere que las condiciones del campo introducen variabilidad que afecta la exactitud de las predicciones.
• Recall: 0,85: la capacidad del modelo para identificar correctamente las instancias relevantes disminuye en el campo, posiblemente debido a factores ambientales no controlados.
• F1-Score: 0,86: el desempeño general es bueno, pero menor que en el entorno controlado del laboratorio, indicando que el modelo enfrenta más desafíos en condiciones reales.
Finalmente se presenta el entrenamiento del modelo CNN utilizando Python y TensorFlow/Keras
import tensorflow as tf
from tensorflow.keras.preprocessing.image import ImageDataGenerator
from tensorflow.keras.models import Sequential
from tensorflow.keras.layers import Conv2D, MaxPooling2D, Flatten, Dense, Dropout
from tensorflow.keras.optimizers import Adam
# Configuración del generador de datos con aumento
datagen = ImageDataGenerator(
rescale=1./255,
rotation_range=20,
width_shift_range=0,2,
height_shift_range=0,2,
zoom_range=0,2,
horizontal_flip=True,
validation_split=0,2)
train_generator = datagen.flow_from_directory(
‘path_to_images’,
target_size=(150, 150),
batch_size=32,
class_mode=’categorical’,
subset=’training’)
validation_generator = datagen.flow_from_directory(
‘path_to_images’,
target_size=(150, 150),
batch_size=32,
class_mode=’categorical’,
subset=’validation’)
# Definición del modelo CNN
model = Sequential([
Conv2D(32, (3, 3), activation=’relu’, input_shape=(150, 150, 3)),
MaxPooling2D((2, 2)),
Conv2D(64, (3, 3), activation=’relu’),
MaxPooling2D((2, 2)),
Conv2D(128, (3, 3), activation=’relu’),
MaxPooling2D((2, 2)),
Flatten(),
Dense(512, activation=’relu’),
Dropout(0,5),
Dense(len(train_generator.class_indices), activation=’softmax’)])
# Compilación del modelo
model.compile(optimizer=Adam(learning_rate=0,001),
loss=’categorical_crossentropy’,
metrics=[‘accuracy’])
# Entrenamiento del modelo
history = model.fit(
train_generator,
epochs=25,
validation_data=validation_generator)
# Evaluación del modelo
loss, accuracy = model.evaluate(validation_generator)
print(f’Precisión del modelo en el conjunto de validación: {accuracy:.2f}’)
# Guardar el modelo entrenado
model.save(‘plant_classification_model.h5’)
DISCUSIÓN
Desempeño del Modelo en la Clasificación de Especies de Plantas
Los resultados muestran un modelo de clasificación de especies de plantas utilizando redes neuronales convolucionales (CNN), con métricas de precisión, recall y F1-score muy robustas en diferentes condiciones. El modelo alcanza una precisión y recall en el rango de 0,85 a 0,90 en condiciones variadas, tanto en laboratorio como en campo. Esto es consistente con estudios previos que también han mostrado buenos resultados bajo condiciones controladas. Según Diwedi et al.(17) indica que los modelos de clasificación de especies vegetales pueden experimentar una reducción en la precisión y recall al pasar de condiciones controladas a entornos naturales. El presente estudio confirma esta tendencia, destacando la importancia de adaptar los modelos para enfrentar desafíos como cambios en la iluminación y variabilidad del fondo.
Impacto del Entorno
Los antecedentes indican que los modelos de clasificación de especies vegetales enfrentan desafíos significativos cuando se implementan en entornos naturales debido a variaciones en la iluminación, sombras y complejidad del fondo. Park et al.(14) menciona que la identificación precisa de elementos en imágenes de rayos X presenta desafíos debido a la variabilidad en la forma y densidad de los elementos. La presente investigación enfrenta desafíos similares con la variabilidad ambiental, pero muestra que el modelo aún mantiene una precisión relativamente alta en condiciones de campo. Además, Li et al.(15) subraya la importancia de la clasificación precisa de poblaciones de algas en el monitoreo de la calidad del agua marina, destacando las dificultades de identificar especies en mezclas y diferentes condiciones de concentración. Los resultados del presente estudio confirman la necesidad de técnicas robustas para enfrentar variabilidades similares en la clasificación de especies de plantas.
Técnicas de Aumento de Datos
En los resultados se muestra que las técnicas de aumento de datos mejoran significativamente la precisión del modelo. Este hallazgo es respaldado por Chen et al.(13), que utiliza aumentos de datos para mejorar la precisión y generalización del modelo en la detección de malezas. Y los resultados del estudio demuestran que el aumento de datos puede reducir el sobreajuste y mejorar la robustez del modelo, especialmente en condiciones de campo. Ademas, Diwedi et al.(17) emplea transferencia de aprendizaje progresiva (PTL) y aumentos de datos para mejorar la clasificación de plantas medicinales. Similarmente, al presente estudio utiliza estas técnicas para mejorar la precisión en la clasificación de especies vegetales.
Comparación entre Laboratorio y Campo
El estudio revela diferencias en el desempeño del modelo entre el laboratorio y el campo. Esta observación es consistente con Soltani et al.(12), que encontró que los modelos entrenados con datos de ciencia ciudadana podían ser transferidos exitosamente a diferentes estaciones de crecimiento, mejorando la generalización del modelo. Asimismo, He et al.(16), que utiliza FT-NIR y técnicas avanzadas de análisis espectral para clasificar frutas, destacando la importancia de la robustez del modelo en diferentes condiciones ambientales.
Desafíos y Limitaciones
Park et al.(14) subraya los desafíos en la clasificación de elementos cuarentenados en imágenes de rayos X debido a la variabilidad en los datos. De manera similar, el presente estudio enfrenta desafíos en la variabilidad ambiental y destaca la necesidad de desarrollar modelos más robustos y adaptativos. También, Jaiswal et al.(18) aborda la clasificación de flores utilizando un modelo MDCNN, destacando la importancia de la reducción de dimensiones y la segmentación precisa de imágenes. Los resultados del presente estudio confirman que técnicas similares son efectivas para la clasificación de especies de plantas, pero también sugieren la necesidad de optimizar los modelos para condiciones de campo más variadas.
CONCLUSIONES
Las CNN han demostrado ser altamente efectivas para la clasificación de especies de plantas en la selva amazónica peruana. Con una precisión del 90 % en el laboratorio y una precisión del 87 % en el campo, las CNN han mostrado ser una herramienta robusta para la identificación de especies en entornos variados.
Las técnicas de aumento de datos, como la rotación, traslación, zoom y flip horizontal, han mejorado significativamente la precisión del modelo. El uso de estas técnicas ha permitido aumentar la precisión en un promedio del 3 % en comparación con los datos sin aumento, destacando la importancia del preprocesamiento de datos en el entrenamiento de modelos de aprendizaje profundo.
La variabilidad en las condiciones de iluminación afecta el desempeño del modelo. Sin embargo, el modelo mostró una capacidad razonable para adaptarse a estas variaciones, manteniendo una precisión de 0,86 en condiciones de baja iluminación y mejorando a 0,91 en condiciones óptimas. Esto subraya la necesidad de considerar las condiciones ambientales al implementar modelos en el campo.
Aunque el modelo mantiene un alto nivel de desempeño en el campo, hay una ligera disminución en las métricas de desempeño en comparación con las condiciones controladas de laboratorio. La precisión, el recall y el F1-score son consistentemente más altos en el laboratorio (0,90) en comparación con el campo (0,87, 0,85 y 0,86 respectivamente), lo que sugiere que las condiciones ambientales y la variabilidad natural deben ser consideradas en futuras implementaciones.
La investigación ha resaltado la importancia de desarrollar modelos robustos que puedan generalizarse a diferentes condiciones ambientales. La validación del modelo tanto en el laboratorio como en el campo ha proporcionado una evaluación integral de su desempeño, confirmando su aplicabilidad práctica en entornos reales.
Los hallazgos de este estudio son consistentes con investigaciones previas que destacan la efectividad de las técnicas de aprendizaje profundo en la clasificación de especies vegetales. Sin embargo, este estudio aporta nuevas evidencias sobre la eficacia del aumento de datos y la capacidad de los modelos para adaptarse a diferentes condiciones de iluminación y entornos naturales.
En resumen, este estudio demuestra que las redes neuronales convolucionales son herramientas poderosas para la clasificación de especies de plantas en la selva amazónica peruana. La implementación de técnicas de aumento de datos y la validación en condiciones de campo son esenciales para desarrollar modelos robustos y generalizables. Estas conclusiones no solo aportan al conocimiento actual, sino que también ofrecen una base sólida para futuras investigaciones en este campo.
REFERENCIAS BIBLIOGRÁFICAS
1. Das PK, Sahu A, Xavy D V., Meher S. A Deforestation Detection Network Using Deep Learning-Based Semantic Segmentation. IEEE Sens Lett. 2024 Jan;8(1):1–4.
2. Boston T, Van Dijk A, Thackway R. U-Net Convolutional Neural Network for Mapping Natural Vegetation and Forest Types from Landsat Imagery in Southeastern Australia. J Imaging. 2024 Jun 13;10(6):143.
3. Brun P, Karger DN, Zurell D, Descombes P, de Witte LC, de Lutio R, et al. Multispecies deep learning using citizen science data produces more informative plant community models. Nat Commun. 2024 May 24;15(1):4421.
4. Bera A, Bhattacharjee D, Krejcar O. PND-Net: plant nutrition deficiency and disease classification using graph convolutional network. Sci Rep. 2024 Jul 5;14(1):15537.
5. Çimen Mesutoğlu Ö, Gök O. Prediction of COD in industrial wastewater treatment plant using an artificial neural network. Sci Rep. 2024 Jun 14;14(1):13750.
6. Casas GG, Baselly-Villanueva JR, Limeira MMC, Torres CMME, Leite HG. Classifying the risk of forest loss in the Peruvian amazon rainforest: An alternative approach for sustainable forest management using artificial intelligence. Trees, Forests and People. 2023 Dec;14:100440.
7. Larrea‐Gallegos G, Vázquez‐Rowe I. Exploring machine learning techniques to predict deforestation to enhance the decision‐making of road construction projects. J Ind Ecol. 2022 Feb 24;26(1):225–39.
8. Sharma H, Shrivastava M, Singh B. Author Correction: Physics informed deep neural network embedded in a chemical transport model for the Amazon rainforest. NPJ Clim Atmos Sci. 2024 Mar 2;7(1):55.
9. Fagbohun OF, Hui JPM, Zhang J, Jiao G, Rupasinghe HPV. Application of response surface methodology and artificial neural network to optimize the extraction of saponins and polyphenols from North Atlantic sea cucumber. Food Chemistry Advances. 2024 Dec;5:100748.
10. Zhang HT, Yang TT, Wang WT. A novel hybrid model for species distribution prediction using neural networks and Grey Wolf Optimizer algorithm. Sci Rep. 2024 May 20;14(1):11505.
11. Thiagarajan JD, Kulkarni SV, Jadhav SA, Waghe AA, Raja SP, Rajagopal S, et al. Analysis of banana plant health using machine learning techniques. Sci Rep. 2024 Jul 1;14(1):15041.
12. Soltani S, Ferlian O, Eisenhauer N, Feilhauer H, Kattenborn T. From simple labels to semantic image segmentation: leveraging citizen science plant photographs for tree species mapping in drone imagery. Biogeosciences. 2024 Jun 14;21(11):2909–35.
13. Chen X, Wu C, Dang P, Zhang E, Chen Y, Tang C, et al. Recognizing weed in rice field using ViT-improved YOLOv7. Nongye Gongcheng Xuebao/Transactions of the Chinese Society of Agricultural Engineering. 2024;40(10):185–93.
14. Park BG, Kang GD, Im CH, Seo DJ, Oh WS, Na Y. Feasibility study of X-ray image recognition technique using artificial intelligence for detection of plant and animal quarantine. Journal of the Korean Physical Society. 2024 May 18;84(10):812–22.
15. Li R, Gao L, Wu G, Dong J. Multiple marine algae identification based on three-dimensional fluorescence spectroscopy and multi-label convolutional neural network. Spectrochim Acta A Mol Biomol Spectrosc. 2024 Apr;311:123938.
16. He G, Yang S, Wang Y. A rapid method for identification of Lanxangia tsaoko origin and fruit shape: FT‐NIR combined with chemometrics and image recognition. J Food Sci. 2024 Apr 19;89(4):2316–31.
17. Diwedi HK, Misra A, Tiwari AK. CNN-based medicinal plant identification and classification using optimized SVM. Multimed Tools Appl. 2023 Sep 25;83(11):33823–53.
18. Jaiswal V, Sharma V, Bisen D. Modified Deep-Convolution Neural Network Model for Flower Images Segmentation and Predictions. Multimed Tools Appl. 2023 Aug 23;83(9):25713–39.
FINANCIACIÓN
Ninguna.
CONFLICTO DE INTERÉS
Ninguno.
CONTRIBUCIÓN DE AUTORÍA
Conceptualización: Brian Andreé Meneses Claudio.
Investigación: Brian Andreé Meneses Claudio.
Metodología: Brian Andreé Meneses Claudio.
Administración del proyecto: Brian Andreé Meneses Claudio.
Redacción-borrador original: Brian Andreé Meneses Claudio.
Redacción-revisión y edición: Brian Andreé Meneses Claudio.