Implementación de una interfaz cerebro computador para el desplazamiento del efector final de un robot colaborativo UR3

dc.contributor.advisorChío Cho, Nayibe
dc.contributor.advisorBarragán Gómez, Johann
dc.contributor.apolounabChío Cho, Nayibe [nayibe-chío-cho]spa
dc.contributor.apolounabBarragán Gómez, Johann [johann-barragan]spa
dc.contributor.authorDiaz Garcia, Edwin David
dc.contributor.authorVega Cáceres, Brayan Steven
dc.contributor.cvlacChío Cho, Nayibe [0000375918]spa
dc.contributor.cvlacBarragán Gómez, Johann [0001496379]spa
dc.contributor.googlescholarChío Cho, Nayibe [es&oi=ao]spa
dc.contributor.googlescholarBarragán Gómez, Johann [es&oi=ao]spa
dc.contributor.linkedinChío Cho, Nayibe [Nayibe_Chio]
dc.contributor.orcidDiaz Garcia, Edwin David [0000-0003-3226-6260]spa
dc.contributor.orcidVega Cáceres, Brayan Steven [0000-0003-0225-6459]spa
dc.contributor.orcidChío Cho, Nayibe [0000-0002-9459-4350]spa
dc.contributor.orcidBarragán Gómez, Johann [0000-0001-6114-6116]spa
dc.contributor.researchgateChío Cho, Nayibe [Nayibe_Chio]
dc.coverage.campusUNAB Campus Bucaramangaspa
dc.coverage.spatialColombiaspa
dc.date.accessioned2023-08-09T14:45:56Z
dc.date.available2023-08-09T14:45:56Z
dc.date.issued2023-07-27
dc.degree.nameIngeniero Mecatrónicospa
dc.description.abstractLa imaginación motora en interfaces cerebro computador juega un papel cada vez más importante en la rehabilitación de trastornos motores y en la aplicación de múltiples tecnologías. Sin embargo, es un campo de investigación que tiene una gran trayectoria por delante, debido a la gran cantidad de variables que pueden cambiar los resultados de un experimento y que las señales EEG varían de un sujeto a otro. Por ello, los estudiantes de la Universidad Autónoma de Bucaramanga implementaron una interfaz cerebro computador para controlar el efector final de un robot colaborativo UR3, con el fin de generar bases de conocimiento e incentivar la investigación de esta tecnología en la universidad. La interfaz utiliza un Enobio 8 y la imaginación motora para la adquisición de la señal, MATLAB para el preprocesamiento, procesamiento, traducción y envío de comandos, y ROS para permitir la comunicación entre el MATLAB y el UR3.spa
dc.description.abstractenglishMotor imagery in brain-computer interfaces plays an increasingly important role in the rehabilitation of motor disorders and application of multiple technologies. However, it is a field of research that has a long way to go, due to the large number of variables that can change the results of an experiment and the fact that EEG signals can vary from one subject to another. For this reason, the students at the Universidad Autónoma de Bucaramanga implemented a brain-computer interface to control the end effector of a UR3 collaborative robot, to generate knowledge bases and encourage research on this technology at the university. The interface uses an Enobio 8 and motor imagery for signal acquisition, MATLAB for preprocessing, processing, command translation and dispatch, and ROS to enable communication between the MATLAB and the UR3.spa
dc.description.degreelevelPregradospa
dc.description.learningmodalityModalidad Presencialspa
dc.description.tableofcontents1. INTRODUCCIÓN ............................................................................................ 15 1.1. DEFINICIÓN DEL PROBLEMA ...................................................................... 15 1.2. JUSTIFICACIÓN ............................................................................................. 15 2. OBJETIVOS.................................................................................................... 17 2.1. OBJETIVO GENERAL .................................................................................... 17 2.2. OBJETIVOS ESPECÍFICOS........................................................................... 17 3. ESTADO DEL ARTE ....................................................................................... 18 4. MARCO TEÓRICO ......................................................................................... 20 4.1. INTERFAZ CEREBRO COMPUTADOR ......................................................... 20 4.2. ELECTROENCEFALOGRAMA ....................................................................... 21 4.3. IMAGINACIÓN MOTORA ............................................................................... 21 4.4. CORTEZA MOTORA ...................................................................................... 22 4.5. SISTEMA INTERNACIONAL 10-20 ................................................................ 23 4.6. PREPROCESAMIENTO ................................................................................. 24 4.7. EXTRACCIÓN DE CARACTERÍSTICAS ........................................................ 24 4.7.1. Patrón espacial común (CSP) ................................................................... 25 4.7.2. Densidad de potencia espectral (PSD) ..................................................... 25 4.8. APRENDIZAJE AUTOMÁTICO ...................................................................... 25 4.8.1. Entrenamiento y evaluación...................................................................... 25 4.8.1.1. Subajuste............................................................................................... 25 4.8.1.2. Sobreajuste ........................................................................................... 26 4.8.2. Validación cruzada .................................................................................... 26 4.8.3. Métricas de clasificación ........................................................................... 27 4.8.4. Máquina de vector soporte (SVM) ............................................................ 27 4.8.5. Análisis discriminante lineal (LDA) ............................................................ 28 4.9. ROBOT COLABORATIVO .............................................................................. 28 4.9.1. UR3........................................................................................................... 28 4.10. MODELO CINEMÁTICO ........................................................................... 29 4.10.1. Cinemática directa ................................................................................. 29 4.10.2. Cinemática inversa ................................................................................ 29 4.11. ROBOT OPERATING SYSTEM (ROS) .................................................... 29 5. METODOLOGÍA ............................................................................................. 30 6. DESARROLLO ............................................................................................... 33 6.1. SELECCIÓN DE LOS PARÁMETROS PARA LA ADQUISICIÓN DE LA SEÑALE EEG ....................................................................................................................... 33 6.1.1. Paradigma ................................................................................................ 33 6.1.2. Modalidad de estímulo .............................................................................. 33 6.1.3. Modo de operación ................................................................................... 34 6.1.4. Estrategia de operación ............................................................................ 34 6.1.4.1. Adquisición de las señales cerebrales ................................................... 34 6.1.4.2. Actividades mentales ............................................................................. 37 6.1.5. Método de grabación ................................................................................ 38 6.2. PROTOCOLO PARA TRABAJAR CON PERSONAS ..................................... 40 6.3. ADQUISICIÓN DE LAS SEÑALES EEG ........................................................ 42 6.3.1. Ubicación de los electrodos para IM ......................................................... 42 6.3.2. Enobio 8.................................................................................................... 43 6.3.3. NIC2.......................................................................................................... 44 6.3.4. Conexión del Enobio 8 con MATLAB ........................................................ 44 6.3.4.1. Librería MATNIC2 .................................................................................. 44 6.3.4.2. Lab Stream Layer (LSL) ........................................................................ 45 6.3.4.3. Inicialización de conexión ...................................................................... 45 6.3.5. Características de los datos adquiridos .................................................... 46 6.4. PREPROCESAMIENTO ................................................................................. 47 6.4.1. Importación de datos al EEGLAB ............................................................. 47 6.4.2. Filtros espectrales ..................................................................................... 47 6.4.3. Eliminación de artefactos usando el ICA .................................................. 49 6.5. EXTRACCIÓN DE CARACTERÍSTICAS ........................................................ 50 6.5.1. PSD .......................................................................................................... 50 6.5.2. CSP .......................................................................................................... 51 6.5.3. Extractor final ............................................................................................ 52 6.6. CLASIFICACIÓN ............................................................................................ 53 6.6.1. LDA ........................................................................................................... 54 6.6.2. SVM .......................................................................................................... 55 6.7. COMUNICACIÓN MATLAB - UR3 .................................................................. 57 6.7.1. Arquitectura de comunicación ................................................................... 60 6.7.2. Instalación y configuración de los componentes ....................................... 61 6.7.3. Inicialización de la conexión MATLAB - UR3 ............................................ 62 6.8. TRADUCCIÓN DE COMANDOS .................................................................... 62 6.8.1. Cinemática inversa ................................................................................... 64 6.8.2. Enviar comando al UR3 ............................................................................ 65 6.8.3. Limitaciones de seguridad ........................................................................ 65 6.9. INTERFAZ DE ESTIMULACIÓN Y MONITOREO .......................................... 67 6.9.1. Descripción de la aplicación ..................................................................... 67 6.9.2. Estímulo visual .......................................................................................... 67 6.9.3. Procesamiento y Conexión UR3 ............................................................... 69 6.9.4. Validación ................................................................................................. 69 6.9.5. Retroalimentación ..................................................................................... 70 6.9.6. Requisitos y Funcionalidades ................................................................... 71 7. RESULTADOS Y EVIDENCIAS ...................................................................... 73 7.1. RESULTADOS ESPERADOS ......................................................................... 73 7.2. BASES DE DATOS ......................................................................................... 73 7.3. PIPELINE DE TRATAMIENTO DE LA SEÑAL ................................................ 74 7.4. INTERFAZ DE ESTIMULACIÓN Y MONITOREO .......................................... 74 7.5. MANUAL DE USUARIO .................................................................................. 74 7.6. PRUEBAS OFFLINE ...................................................................................... 75 7.6.1. SVM .......................................................................................................... 75 7.6.2. LDA ........................................................................................................... 76 7.7. PRUEBA ONLINE ........................................................................................... 78 7.8. ANÁLISIS........................................................................................................ 80 8. DISCUSIÓN .................................................................................................... 82 9. CONCLUSIONES ........................................................................................... 84 10. REFERENCIAS .............................................................................................. 85 ANEXOS ................................................................................................................ 96 ANEXO A. Matrices de Selección .......................................................................... 96spa
dc.format.mimetypeapplication/pdfspa
dc.identifier.instnameinstname:Universidad Autónoma de Bucaramanga - UNABspa
dc.identifier.reponamereponame:Repositorio Institucional UNABspa
dc.identifier.repourlrepourl:https://repository.unab.edu.cospa
dc.identifier.urihttp://hdl.handle.net/20.500.12749/21107
dc.language.isospaspa
dc.publisher.facultyFacultad Ingenieríaspa
dc.publisher.grantorUniversidad Autónoma de Bucaramanga UNABspa
dc.publisher.programPregrado Ingeniería Mecatrónicaspa
dc.relation.referencesJ. C. Cubillos Alzate y S. A. Perea Caro, “Boletines poblacionales, personas con discapacidad pcd1 oficina de promoción social”, diciembre de 2020. https://www.minsalud.gov.co/sites/rid/Lists/BibliotecaDigital/RIDE/DE/PS/boletines-poblacionales-personas-discapacidadI-2020.pdf (consultado el 5 de junio de 2022).spa
dc.relation.referencesA. M. Peña Alvarez, “Desarrollo de interfaz cerebro-máquina basada en el análisis de EEG y potenciales visuales evocados en estado estable para el control de un objeto”, instname:Universidad de los Andes, 2015, Consultado: el 7 de agosto de 2022. [En línea]. Disponible en: http://hdl.handle.net/1992/17442spa
dc.relation.referencesJ. Henderson y International neuromodulation society, “Motor Impairment”, el 2 de abril de 2012. https://www.neuromodulation.com/motor-impairment#:~:text=Motor%20impairment%20is%20the%20partial,muscle%20control,%20or%20total%20paralysis (consultado el 9 de junio de 2022).spa
dc.relation.referencesÜ. Hayta , D. C. Irimia, C. Guger, İ. Erkutlu, y İ. H. Güzelbey, “Optimizing Motor Imagery Parameters for Robotic Arm Control by Brain Computer Interface”, Brain Sci , vol. 12, núm. 7, 2022, doi: 10.3390/spa
dc.relation.referencesV. Nandikolla y D. A. Medina Portilla, “ Teleoperation Robot Control of a Hybrid EEG Based BCI Arm Manipulator Using ROS”, Journal of Robotics , vol. 2022, pp. 1 14, may 2022, doi: 10.1155/2022/5335523.spa
dc.relation.referencesS. P. Karunasena, D. C. Ariyarathna, R. Ranaweera, J. Wijayakulasooriya, K. Kim, y T. Dassa nayake, “Single Channel EEG SSVEP based BCI for Robot Arm Control”, en 2021 IEEE Sensors Applications Symposium (SAS) SAS), IEEE, ago. 2021, pp. 1 6. doi: 10.1109/SAS51076.2021.9530189.spa
dc.relation.referencesM. Vilela y L. R. Hochberg, “Applications of brain computer interfaces to the control of robotic and prosthetic arms”, 2020, pp. 87 99. doi: 10.1016/B978 0 444 63934 9.00008 1.spa
dc.relation.referencesS. Jalilpour y G. Müller Putz, “Toward passive BCI: asynchronous decoding of neural responses to direction and angle sp ecific perturbations during a simulated cockpit scenario”, Sci Rep , vol. 12, núm. 1, p. 6802, dic. 2022, doi: 10.1038/s41598 022 10906 5.spa
dc.relation.referencesA. P. Kurmis y J. R. Ianunzio, “Artificial intelligence in orthopedic surgery: evolution, current state and future directions”, Arthroplasty , vol. 4, núm. 1, 2022, doi: 10.1186/s42836 022 00112 z.spa
dc.relation.referencesD. S. Vadivelan, S. Prabhu, y M. Uma, “Analysis of bci system to operate robotic arm control for navigation to assist disable pepople (a review)”, 한국감성과학회 국제학술대회 ICES) vol. 2021, p. 75, nov. 2021, [En línea]. Disponible en: https://stanford.idm.oclc.org/login?url=https://search.ebscohost.com/login.aspx?direct=true&site=eds-live&db=edskis&AN=edskis.3947634spa
dc.relation.referencesQ. Huang, Z. Zhang, T. Yu, S. He, y Y. Li, “An EEG EOG base d hybrid brain computer interface: application on controlling an integrated wheelchair robotic arm system”, Front Neurosci , vol. 13, 2020.spa
dc.relation.referencesS. Norman, “Brain Computer Interface Design for Robot Assisted Neurorehabilitation”, 2017. [En línea]. Disponibl e en: https://escholarship.org/uc/item/4v18v0d3.spa
dc.relation.referencesR. Mane, T. Chouhan, y C. Guan, “BCI for stroke rehabilitation: motor and beyond”, J Neural Eng , vol. 17, núm. 4, p. 041001, ago. 2020, doi: 10.1088/1741 2552/aba162.spa
dc.relation.referencesN. González y J. Francisco, “Diseño y desarrollo de un sistema para el control mental de prótesis utilizando una interfaz cerebro-computadora (bci)”, Trabajo de grado, Universidad Nacional Autónoma de México, Mexico, 2013. Consultado: el 16 de agosto de 2022. [En línea]. Disponible en: https://ru.dgb.unam.mx/handle/DGB_UNAM/TES01000710076.spa
dc.relation.referencesS. Ibagué Martín, “Diseño de un prototipo de plataforma móvil a partir de eventos cerebrales generados en el lóbulo frontal”, 2020, Consultado: el 16 de agosto de 2022. [En línea]. Disponible en: https://repository.usta.edu.co/handle/11634/31909#.YvzvV7iM-Tc.mendeley.spa
dc.relation.referencesL. C. Brito Medina y I. en Mecatrónica, “Control de movimiento de un móvil robótico mediante una interfaz cerebro-computador”, oct. 2014, Consultado: el 16 de agosto de 2022. [En línea]. Disponible en: https://repository.unimilitar.edu.co/handle/10654/13580#.Yvzvrse7oww.mendeley.spa
dc.relation.referencesA. F. Escobar Ortiz, “Diseño de un clasificador de señales EEG provenientes de una interfaz BCI utilizando redes neuronales para controlar un robot hexápodo”, Trabajo de grado, Universidad Autónoma de Occidente, 2018. Consultado: el 16 de agosto de 2022. [En línea]. Disponible en: http://hdl.handle.net/10614/10354.spa
dc.relation.referencesA. F. Reyes Fernandez, “Herramienta para la generación de texto basada en una interfaz cerebro-computador”, Universidad Santo Tomás , 2020. Consultado: el 16 de agosto de 2022. [En línea]. Disponible en: http://hdl.handle.net/11634/29868.spa
dc.relation.referencesC. González Rodríguez, J. S. Lasprilla Hincapié, I. en Mecatrónica, y I. en Mecatrónica, “Manipulation of robotic arm with EEG signal”, jun. 2017, Consultado: el 16 de agosto de 2022. [En línea]. Disponible en: https://repository.unimilitar.edu.co/handle/10654/16901#.YvzyComU7jg.mendeley.spa
dc.relation.referencesL. A. Fernández Motta y I. en Mecatrónica, “Sistema de control de trayectoria en manipulador de cinco grados de libertad utilizando sensor Emotiv”, ago. 2014, Consultado: el 16 de agosto de 2022. [En línea]. Disponible en: https://repository.unimilitar.edu.co/handle/10654/12475#.YvzySrbNx2E.mendeley.spa
dc.relation.referencesC. A. Cáceres Flórez y I. en Mecatrónica, “Implementación de un sensor de electroencefalograma (EEG) en aplicaciones domóticas”, jul. 2013, Consultado: el 16 de agosto de 2022. [En línea]. Disponible en: https://repository.unimilitar.edu.co/handle/10654/11700#.Yvzyduwg3Cg.mendeley.spa
dc.relation.referencesJ. S. Ramírez Archila, “Detección de intención motora empleando técnicas de aprendizaje automático”, Trabajo de grado, Escuela Colombiana de Ingeniería Julio Garavito, Bogotá, 2020. Consultado: el 16 de agosto de 2022. [En línea]. Disponible en: https://repositorio.escuelaing.edu.co/handle/001/1279.spa
dc.relation.referencesJ. R. Arciniegas Polanco, “Pruebas de concepto para prótesis de miembro superior mediante herramientas de comunicación BCI”, instname:Universidad de los Andes, 2014, Consultado: el 16 de agosto de 2022. [En línea]. Disponible en: http://hdl.handle.net/1992/20133spa
dc.relation.referencesJ. S. Tigreros Niño, “Algoritmo para la clasificación de ondas cerebrales mediante técnicas de aprendizaje profundo enfocado en el movimiento de miembros inferiores haciendo uso de una interfaz cerebro-máquina”, Trabajo de grado, Universidad Autónoma de Bucaramanga, Bucaramanga, 2020. Consultado: el 16 de agosto de 2022. [En línea]. Disponible en: http://hdl.handle.net/20.500.12749/13898spa
dc.relation.referencesÁ. M. Gamba Cárdenas, “Diseño e implementación de una interfaz cerebro-máquina (BCI) para la identificación de tareas cognitivas, a partir de señales de EEG adquiridas con sistemas portátiles”, instname:Universidad de los 89 Andes, 2013, Consultado: el 16 de agosto de 2022. [En línea]. Disponible en: http://hdl.handle.net/1992/19414spa
dc.relation.referencesJ. Salguero López y I. en Mecatrónica, “Diseño de un prototipo de sistema de comunicación personal mediante el uso de señales de electroencefalografía (EEG)”, dic. 2015, Consultado: el 16 de agosto de 2022. [En línea]. Disponible en: https://repository.unimilitar.edu.co/handle/10654/7476#.Yvz0g_H7CrU.mendeleyspa
dc.relation.referencesJ. S. Useche Parra, “Desarrollo de un sistema de adquisición de EEG, para estimulación y procesamiento de potenciales visuales evocados en estado estable sobre una plataforma móvil, con aplicación a juegos didácticos”, instname:Universidad de los Andes, 2016, Consultado: el 16 de agosto de 2022. [En línea]. Disponible en: http://hdl.handle.net/1992/15667spa
dc.relation.referencesJ. S. Rani Alex, M. A . Haque, A. Anand, A. Gautam, y N. Venkatesan, “A deep learning approach for robotic arm control using brain Computer interface”, International Journal of Biology and Biomedical Engineering , vol. 14, pp. 128 135, 2020, doi: 10.46300/91011.2020.14.18.spa
dc.relation.referencesG. Yu, J. Wang, W. Chen, y J. Zhang, “EEG based brain controlled lower extremity exoskeleton rehabilitation robot”, en 2017 IEEE International Conference on Cybernetics and Intelligent Systems, CIS 2017 and IEEE Conference on Robotics, Automation and Mecha tronics, RAM 2017 Proceedings , 2018, pp. 763 767. doi: 10.1109/ICCIS.2017.8274875.spa
dc.relation.referencesM. Aljalal, R. Djemal, y S. Ibrahim, “Robot Navigation Using a Brain Computer Interface Based on Motor Imagery”, J Med Biol Eng, vol. 39, núm. 4, pp. 508–522, 2019, doi: 10.1007/s40846-018-0431-9.spa
dc.relation.referencesM. Memari, M. M. Sakhaee, M. H. Nadian, A. Taheri, y A. Ghazizadeh, “Design and Manufacture of a Guided Mechanical Arm by EEG Signals”, en 9th RSI International Conference on Robotics and Mechatronics, ICRoM 2021, 2021, pp. 574–579. doi: 10.1109/ICRoM54204.2021.9663472.spa
dc.relation.referencesA. Ak, V. Topuz, y I. Midi, “Motor imagery EEG signal classification using image processing technique over GoogLeNet deep learning algorithm for controlling the robot manipulator”, Biomed Signal Process Control, vol. 72, p. 103295, feb. 2022, doi: 10.1016/j.bspc.2021.103295.spa
dc.relation.referencesP. Batres-Mendoza, E. I. Guerra-Hernandez, A. Espinal, E. Perez-Careta, y H. Rostro-Gonzalez, “Biologically-Inspired Legged Robot Locomotion Controlled with a BCI by Means of Cognitive Monitoring”, IEEE Access, vol. 9, pp. 35766–35777, 2021, doi: 10.1109/ACCESS.2021.3062329.spa
dc.relation.referencesY. Liu, M. Habibnezhad, y H. Jebelli, “Brain-computer interface for hands-free teleoperation of construction robots”, Autom Constr, vol. 123, 2021, doi: 10.1016/j.autcon.2020.103523.spa
dc.relation.referencesG. Gillini, P. D. Lillo, y F. Arrichiello, “An Assistive Shared Control Architecture for a Robotic Arm Using EEG-Based BCI with Motor Imagery”, en IEEE International Conference on Intelligent Robots and Systems, 2021, pp. 4132–4137. doi: 10.1109/IROS51168.2021.9636261.spa
dc.relation.referencesEMOTIV, “EMOTIV”, 2022. www.emotiv.com (consultado el 21 de septiembre de 2022).spa
dc.relation.referencesg.tec, “g.tec”, 2022. https://www.gtec.at/ (consultado el 21 de septiembre de 2022).spa
dc.relation.referencesNeuroelectrics, “Enobio EEG system”, 2022. https://www.neuroelectrics.com/solutions/enobio (consultado el 21 de septiembre de 2022).spa
dc.relation.referencesOpenBci, “OpenBci”, 2022. https://openbci.com/ (consultado el 21 de septiembre de 2022).spa
dc.relation.referencesL. Bouafif, “Monitoring of Anesthesia by Bispectral Analysis of EEG Signals”, Comput Math Methods Med, vol. 2021, pp. 1–13, may 2021, doi: https://doi.org/10.1155/2021/9961998.spa
dc.relation.referencesM. Rodríguez Ugarte, I. N. Angulo Sherman, E. Iáñez, y J. M. Azorín, “Comparativa de algoritmos para la detección online de imaginación motora de la marcha basado en señales de EEG”, Trabajo de grado, Universidad Coruña, 2017. Consultado: el 16 de agosto de 2022. [En línea]. Disponible en: http://hdl.handle.net/10651/46511spa
dc.relation.referencesJ. E. Muñoz Cardona, “Clasificación de patrones de imaginación motora en una interfaz cerebro computador de bajo costo usando software libre”. Pereira : Universidad Tecnológica de Pereira, 2014. Consultado: el 16 de agosto de 2022. [En línea]. Disponible en: https://repositorio.utp.edu.co/handle/11059/4635spa
dc.relation.referencesS. Sakhavi, “Application of deep learning methods in Brain-Computer Interface system”, 2017. doi: http://dx.doi.org/10.13140/RG.2.2.32800.28166.spa
dc.relation.referencesC. Ferrin Bolaños, H. Loaiza-Correa, J. Pierre-Díaz, y P. Vélez-Ángel, “Evaluación del aporte de la covarianza de las señales electroencefalográficas a las interfaces cerebro-computador de imaginación motora para pacientes con lesiones de médula espinal”, TecnoLógicas, vol. 22, núm. 46, pp. 213–231, sep. 2019, doi: 10.22430/22565337.1392.spa
dc.relation.referencesJ. Ramírez, “Detección de intención motora empleando técnicas de aprendizaje automático”, Universidad del Rosario, Bogotá, 2020. doi: https://doi.org/10.48713/10336_24431.spa
dc.relation.referencesNEPSA, “El Homúnculo cortical de Penfield”, 2021. https://nepsa.es/que-es-el-homunculo-cortical/ (consultado el 27 de mayo de 2023).spa
dc.relation.referencesC. Novo-Olivas, L. Guitiérrez, y J. Bribiesca, “Mapeo Electroencefalográfico y Neurofeedback”, 2010, pp. 371–412. Consultado: el 27 de mayo de 2023. [En línea]. Disponible en: https://www.researchgate.net/publication/282294960_Mapeo_Electroencefalografico_y_Neurofeedbackspa
dc.relation.referencesS. Gómez Gálvez, “Estudio de técnicas de preprocesamiento, procesamiento y clasificación de señales EEG de la Imaginación Motora para la rehabilitación de la marcha”, jul. 2021. [En línea]. Disponible en: https://oa.upm.es/68633/spa
dc.relation.referencesA. Delorme y S. Makeig, “EEGLAB: an open source toolbox for analysis of single-trial EEG dynamics including independent component analysis”, J Neurosci Methods, vol. 134, núm. 1, pp. 9–21, 2004, doi: https://doi.org/10.1016/j.jneumeth.2003.10.009.spa
dc.relation.referencesMathWorks, “Feature extraction for machine learning and deep learning”, 2023. https://la.mathworks.com/discovery/feature-extraction.html (consultado el 27 de mayo de 2023).spa
dc.relation.referencesL. Velásquez, “Feature Representation Frameworks to support Brain Activity Signals Analysis”, 2015. Consultado: el 27 de mayo de 2023. [En línea]. Disponible en: https://repositorio.unal.edu.co/handle/unal/56774spa
dc.relation.referencesW. Bin Ng, A. Saidatul, Y. F. Chong, y Z. Ibrahim, “PSD-Based Features Extraction For EEG Signal During Typing Task”, IOP Conf Ser Mater Sci Eng, vol. 557, núm. 1, p. 012032, jun. 2019, doi: 10.1088/1757-899X/557/1/012032.spa
dc.relation.referencesDataScientest, “Cross-Validation : definición e importancia en Machine Learning”, 2023. https://datascientest.com/es/cross-validation-definicion-e-importancia (consultado el 27 de mayo de 2023).spa
dc.relation.referencesS. Zitao, “3 min of Machine Learning: Cross Vaildation”, 2020. https://zitaoshen.rbind.io/project/machine_learning/machine-learning-101-cross-vaildation/ (consultado el 27 de mayo de 2023).spa
dc.relation.referencesJ. An, “How to Remember all these Classification Concepts forever”, 2020. https://medium.com/swlh/how-to-remember-all-these-classification-concepts-forever-761c065be33 (consultado el 27 de mayo de 2023).spa
dc.relation.referencesMathWorks, “Support Vector Machines for Binary Classification”, 2023. https://la.mathworks.com/help/stats/support-vector-machines-for-binary-classification.html?s_tid=srchtitle_support%2520vector%2520machine_2 (consultado el 27 de mayo de 2023).spa
dc.relation.referencesUniversal Robots, “Cobots y robótica colaborativa - que son, que funciones pueden realizar y sus ventajas”, 2022. https://www.universal-robots.com/es/cobots-robots-colaborativos/#:~:text=¿Qué%20son%20los%20cobots%20o,sean%20conocidos%20como%20robots%20colaborativos.%20(accedido%20el%202%20de%20agosto%20de%202022) (consultado el 16 de agosto de 2022).spa
dc.relation.referencesUniversal Robots, “Brazo Robótico UR3”, 2023. https://www.universal-robots.com/es/productos/robot-ur3/ (consultado el 27 de mayo de 2023)spa
dc.relation.referencesReza N. Jazar, Theory of Applied Robotics: Kinematics, Dynamics, and Control, 2a ed. Riverdale: Springer, 2010.spa
dc.relation.referencesOpen Robotics, “ROS - Robotic Operating System”, 2023. https://www.ros.org/ (consultado el 27 de mayo de 2023).spa
dc.relation.referencesE. Hortal, Brain-Machine Interfaces for Assistance and Rehabilitation of People with Reduced Mobility. Cham: Springer International Publishing, 2019. doi: 10.1007/978-3-319-95705-0.spa
dc.relation.referencesJ. DECETY y M. LINDGREN, “Sensation of effort and duration of mentally executed actions”, Scand J Psychol, vol. 32, núm. 2, pp. 97–104, jun. 1991, doi: 10.1111/j.1467-9450.1991.tb00860.x.spa
dc.relation.referencesO. Llauradó, “La escala de Likert: qué es y cómo utilizarla”, 2014. https://www.netquest.com/blog/es/la-escala-de-likert-que-es-y-como-utilizarla (consultado el 30 de octubre de 2022).spa
dc.relation.referencesE. Quiles, F. Suay, G. Candela, N. Chio, M. Jiménez, y L. Álvarez-Kurogi, “Low-Cost Robotic Guide Based on a Motor Imagery Brain–Computer Interface for Arm Assisted Rehabilitation”, Int J Environ Res Public Health, vol. 17, núm. 3, p. 699, ene. 2020, doi: 10.3390/ijerph17030699.spa
dc.relation.referencesNeuroelectrics, “Neuroelectrics User Manual, Part 3. NIC2”, 2022. https://www.neuroelectrics.com/api/downloads/NE_P3_UM004_EN_NIC2.1.0_1.pdf (consultado el 29 de octubre de 2022).spa
dc.relation.referencesNeuroelectrics, “Enobio EEG system”, 2022. https://www.neuroelectrics.com/solutions/enobio (consultado el 21 de septiembre de 2022).spa
dc.relation.referencesNeuroelectrics, “MatNIC2”, 2022. https://www.neuroelectrics.com/solution/software-integrations/matnic2 (consultado el 29 de octubre de 2022).spa
dc.relation.referencesJ. Acedo, “MatNIC2”, 2019. https://www.neuroelectrics.com/api/downloads/MatNIC_User_Manual_1_3_website_2021.pdf (consultado el 29 de octubre de 2022).spa
dc.relation.referencesK. Christian, M. David, B. Chadwick, G. Matthew, y S. Tristan, “Lab streaming layer”, 2019. https://labstreaminglayer.readthedocs.io/info/intro.html (consultado el 4 de junio de 2023).spa
dc.relation.referencesDelorme A y Makeig S, “EEGLAB preprocessing #4: Filtering”, 2019. https://eeglab.org/others/EEGLAB_References.html (consultado el 4 de junio de 2023).spa
dc.relation.referencesR. I. C., . J., . J., y . R. A., “Decodificación de imaginación motora en la señal de electroencefalografía mediante mapas auto-organizados”, Revista del Centro de Investigación. Universidad La Salle, vol. 12, pp. 107–125, 2016, [En línea]. Disponible en: https://www.redalyc.org/articulo.oa?id=34247483006spa
dc.relation.referencesGoogle for Developers, “Generalization | Machine Learning ”, 2022. https://developers.google.com/machine-learning/crash-course/generalization/video-lecture (consultado el 5 de junio de 2023).spa
dc.relation.referencesMathWorks, “Robotics System Toolbox Support Package for Universal Robots UR Series Manipulators ”, 2023. https://la.mathworks.com/help/supportpkg/urseries/index.html?s_tid=CRUX_lftnav (consultado el 29 de mayo de 2023).spa
dc.relation.referencesUniversal Robots, “Universal Robots ROS driver supporting CB3 and e-Series”, 2023. https://github.com/UniversalRobots/Universal_Robots_ROS_Driver (consultado el 29 de mayo de 2023).spa
dc.relation.referencesMathworks, “inverseKinematics”, 2023. https://la.mathworks.com/help/robotics/ref/inversekinematics-system-object.html (consultado el 29 de mayo de 2023).spa
dc.relation.referencesMATLAB & Simulink, “MATLAB App Designer”, 2023. https://la.mathworks.com/products/matlab/app-designer.html (consultado el 2 de junio de 2023).spa
dc.relation.uriapolohttps://apolo.unab.edu.co/en/persons/nayibe-ch%C3%ADo-chospa
dc.rights.accessrightsinfo:eu-repo/semantics/openAccessspa
dc.rights.creativecommonsAtribución-NoComercial-SinDerivadas 2.5 Colombia*
dc.rights.localAbierto (Texto Completo)spa
dc.rights.urihttp://creativecommons.org/licenses/by-nc-nd/2.5/co/*
dc.subject.keywordsMechatronicspa
dc.subject.keywordsMotor imageryspa
dc.subject.keywordsMATLABspa
dc.subject.keywordsMachine theoryspa
dc.subject.keywordsManipulators (Mechanisms)spa
dc.subject.keywordsAutomationspa
dc.subject.keywordsNumerical analysisspa
dc.subject.keywordsBibliographic databasesspa
dc.subject.lembMecatrónicaspa
dc.subject.lembTeoría de las máquinasspa
dc.subject.lembManipuladores (Mecanismos)spa
dc.subject.lembAutomatizaciónspa
dc.subject.lembAnálisis numéricospa
dc.subject.lembBases de datos bibliográficosspa
dc.subject.proposalBCIspa
dc.subject.proposalEEGspa
dc.subject.proposalUR3spa
dc.subject.proposalROSspa
dc.subject.proposalEnobio 8spa
dc.subject.proposalImaginación motoraspa
dc.titleImplementación de una interfaz cerebro computador para el desplazamiento del efector final de un robot colaborativo UR3spa
dc.title.translatedImplementation of a brain computer interface for the displacement of the end effector of a UR3 collaborative robotspa
dc.type.coarhttp://purl.org/coar/resource_type/c_7a1f
dc.type.coarversionhttp://purl.org/coar/version/c_ab4af688f83e57aaspa
dc.type.driverinfo:eu-repo/semantics/bachelorThesis
dc.type.hasversioninfo:eu-repo/semantics/acceptedVersion
dc.type.localTrabajo de Gradospa
dc.type.redcolhttp://purl.org/redcol/resource_type/TP

Archivos

Bloque original

Mostrando 1 - 2 de 2
Cargando...
Miniatura
Nombre:
2023_Tesis_Brayan_Vega.pdf
Tamaño:
5.39 MB
Formato:
Adobe Portable Document Format
Descripción:
Tesis
Cargando...
Miniatura
Nombre:
2023_Licencia_Brayan_Vega.pdf
Tamaño:
1.17 MB
Formato:
Adobe Portable Document Format
Descripción:
Licencia

Bloque de licencias

Mostrando 1 - 1 de 1
Cargando...
Miniatura
Nombre:
license.txt
Tamaño:
829 B
Formato:
Item-specific license agreed upon to submission
Descripción: