SISTEMA DE CONTROL CINEMÁTICO GUIADO Y COLABORATIVO CON USO DE VISIÓN ARTIFICIAL PARA FINES DE APRENDIZAJE DE TRAYECTORIAS DE LAS EXTREMIDADES SUPERIORES EN TECNOACADEMIA CÚCUTA DEL SENA NDS
SISTEMA DE CONTROL CINEMÁTICO GUIADO Y COLABORATIVO CON USO DE VISIÓN ARTIFICIAL PARA FINES DE APRENDIZAJE DE TRAYECTORIAS DE LAS EXTREMIDADES SUPERIORES EN TECNOACADEMIA CÚCUTA DEL SENA NDS
Mostrar biografía de los autores
En este proyecto se estudia la morfología del
brazo humano con la finalidad de construir un
robot a partir de los criterios de diseño
necesarios para establecer la morfología que
mejor se adapte a los movimientos de las
extremidades superiores de dicho ser humano,
para esto es necesario estudiar las diferentes
formas de calcular el modelo cinemático del
robot, y así poder calcular el control cinemático
que establece la relación entre las velocidades de
las articulaciones. El producto de este trabajo es
desarrollar el control cinemático guiado y
colaborativo mediante percepción y aprendizaje
de trayectorias obtenidas por visión artificial de
los de las extremidades superiores del ser
humano. primordialmente se estudiará los
métodos de control cinemático guiado y por
medio de los criterios de diseño se obtendrá el
control cinemático guiado.
Visitas del artículo 258 | Visitas PDF
Descargas
[1]. Ali, M. H., Aizat, K., Yerkhan, K., Zhandos, T., &
Anuar, O. (2018). Vision-based Robot
Manipulator for Industrial Applications. Procedia
Computer Science, 133, 205–212.
https://doi.org/10.1016/j.procs.2018.07.025
[2]. Acevedo Meza, H., Mendoza García, J. L. ., &
Sepúlveda Mora, S. B. . (2020). Estrategias de
Control MPPT aplicadas en un Convertidor
DC/DC Tipo Boost para Sistemas Fotovoltaicos.
Revista Colombiana de Tecnologías de Avanzada,
2(30), 102-108.
https://doi.org/10.24054/16927257.v30.n30.20
17.175
[3]. Batlle, J. A., Font, J. M., & Escoda, J. (2004). Guiado
de un robot móvil con cinemática de triciclo.
Anales de Ingeniería Mecánica, 15(4), 2981–
2986.
[4]. Bayona Ibáñez, E. ., & Ricon Parada, I. K. . (2020).
Hábitos de estudio y rendimiento académico en
los estudiantes de ingeniería mecánica. Revista
Colombiana de Tecnologías de Avanzada, 1(29),
64-69.
https://doi.org/10.24054/16927257.v29.n29.20
17.191
[5]. Casadiego SAC, Rondón CVN. Caracterización
para la ubicación en la captura de video aplicado
a técnicas de visión artificial en la detección de
personas Revista Tecnologias de Avanzada -
Uipamplona - Journal 2020 ISSN: 1692-7257 -
Vol2 – N 36 - 2020.
[6]. Catalunya, G. De. (2011). Aplicación práctica de la
visión artificial en el control de procesos
industriales.
[7]. COGNEX. (2003). Introducción a la visión
artificial. Una guía para la automatización de
procesos y mejoras de calidad.
[8]. F. A. Guasmayan y N. A. González, “Estado del arte
de redes educativas para el intercambio de
conocimientos en robótica educativa”, Ingeniería
e Innovación, vol. 7, n.° 2, pp. 17-21, 2019.
https://doi.org/10.21897/ 23460466.1784.
[9]. Fang, B., Guo, X., Wang, Z., Li, Y., Elhoseny, M., &
Yuan, X. (2019). Collaborative task assignment of
interconnected, affective robots towards
autonomous healthcare assistant. Future
Generation Computer Systems, 92, 241–251.
https://doi.org/10.1016/j.future.2018.09.069
[10]. Feng, X., Jiang, Y., Yang, X., Du, M., & Li, X.
(2019). Computer vision algorithms and
hardware implementations: A survey.
Integration, 69(August), 309–320.
https://doi.org/10.1016/j.vlsi.2019.07.005
[11]. Fernández Samacá, L. ., Mesa Mesa, L. A. .,
& Pérez Holguín, W. J. . (2020). Investigación
formativa para estudiantes de ingeniería
utilizando robótica. Revista Colombiana de
Tecnologías de Avanzada, 2(28), 30-38.
https://doi.org/10.24054/16927257.v28.n28.20
16.203
[12]. Francesco, P., & Paolo, G. G. (2017). AURA:
An Example of Collaborative Robot for
Automotive and General Industry Applications.
Procedia Manufacturing, 11(June), 338–345.
https://doi.org/10.1016/j.promfg.2017.07.116
[13]. Goldberg, K. (2019). Robots and the
return to collaborative intelligence. Nature
Machine Intelligence, 1(1), 2–4.
https://doi.org/10.1038/s42256-018-0008-x
[14]. Guiffo Kaigom, E., & Roßmann, J. (2017).
Physics-based simulation for manual robot
guidance—An eRobotics approach. Robotics and
Computer-Integrated Manufacturing, 43, 155–
163. https://doi.org/10.1016/j.rcim.2015.09.015
[15]. Kadir, B. A., Broberg, O., & Conceição, C. S.
da. (2019). Current research and future
perspectives on human factors and ergonomics in
Industry 4.0. Computers and Industrial
Engineering, 137(December 2018), 106004.
https://doi.org/10.1016/j.cie.2019.106004
[16]. Laganowska, M. (2019). Application of
vision systems to the navigation of mobile robots
using markers. Transportation Research
Procedia, 40, 1449–1452.
https://doi.org/10.1016/j.trpro.2019.07.200
[17]. Lambraño García, E. D., Lázaro Plata, J. L. .,
& Trigos Quintero, A. E. . (2020). Revisión de
técnicas de sistemas de visión artificial para la
inspección de procesos de soldadura TIPO
GMAW. Revista Colombiana de Tecnologías de
Avanzada, 1(29), 47-57.
https://doi.org/10.24054/16927257.v29.n29.20
17.189
[18]. Levratti, A., Riggio, G., Fantuzzi, C., De
Vuono, A., & Secchi, C. (2019). TIREBOT: A
collaborative robot for the tire workshop.
Robotics and Computer-Integrated
Manufacturing, 57(December 2018), 129–137.
https://doi.org/10.1016/j.rcim.2018.11.001
[19]. Li, Y., & Ge, S. S. (2016). Force tracking
control for motion synchronization in humanrobot
collaboration.
Robotica, 34(6), 1260–1281.
https://doi.org/10.1017/s0263574714002240
[20].Lins, T., Augusto, R., & Oliveira, R. (2020).
Cyber-physical production systems retrofitting in
context of industry 4 . 0. Computers & Industrial
Engineering, 139(November 2019), 106193.
https://doi.org/10.1016/j.cie.2019.106193
[21]. M. Solarte, G. A. Ramírez and D. A.
Jaramillo, “Hábitos de ingreso y resultados en las
evaluaciones en cursos en línea masivos con
reconocimiento académico,” Ing. E Innov., vol.
5, 1, 2017.
[22]. Massa, D., Callegari, M., & Cristalli, C.
(2015). Manual guidance for industrial robot
programming. Industrial Robot, 42(5), 457–465.
https://doi.org/10.1108/IR-11-2014-0413
[23]. Mohammed, A., & Wang, L. (2018).
Brainwaves driven human-robot collaborative
assembly. CIRP Annals, 67(1), 13–16.
https://doi.org/10.1016/j.cirp.2018.04.048
[24]. Niño Rondón, C. V. ., Castro Casadiego, S. A. .,
& Medina Delgado, B. . (2020).
Caracterización para la ubicación en la captura de
video aplicado a técnicas de visión artificial en la
detección de personas. Revista Colombiana de
Tecnologías de Avanzada, 2(36), 83-88.
https://doi.org/10.24054/16927257.v36.n36.20
20.24
[25]. Odorico, A. (2004). Marco teórico para
una robótica pedagógica. Revista de Informática
Educativa y Medios Audiovisuales Vol. 1(3), 1(3),
34–46. Recuperado de
http://laboratorios.fi.uba.ar/lie/Revista/Articulo
s/010103/A4oct2004.pdf
[26]. Omar Arturo, D. R., Alejandro, J. S.,
Vicente, P. V., Francisco, R. S., & Gabriel, S. C.
(2011). Neurorehabilitación Robótica Basada en
Guiado Kinestésico Local para Miembro Superior
con Movimiento Involuntario. Ciencia
Universitaria, 2(February 2016), 19–33.
[27]. Ospina Toro, D. ., Toro Ocampo, E. M. ., &
Gallego Rendón, R. A. . (2020). Solución del
MDVRP usando el algoritmo de búsqueda local
iterada. Revista Colombiana de Tecnologías de
Avanzada, 1(31), 120-127.
https://doi.org/10.24054/16927257.v31.n31.2018.139
[28]. Oyekan, J. O., Hutabarat, W., Tiwari, A.,
Grech, R., Aung, M. H., Mariani, M. P., … Dupuis, C.
(2019). The effectiveness of virtual environments
in developing collaborative strategies between
industrial robots and humans. Robotics and
Computer-Integrated
Manufacturing,
55(September
2017), 41–54.
https://doi.org/10.1016/j.rcim.2018.07.006
[29]. Realyvásquez-Vargas, A., Cecilia
Arredondo-Soto, K., Luis García-Alcaraz, J., Yail
Márquez-Lobato, B., & Cruz-García, J. (2019).
Introduction and configuration of a collaborative
robot in an assembly task as a means to decrease
occupational risks and increase efficiency in a
manufacturing company. Robotics and ComputerIntegrated
Manufacturing, 57(December 2018),
315–328.
https://doi.org/10.1016/j.rcim.2018.12.015
[30]. Rosado Gómez, A. A. ., & Verjel Ibáñez, A. .
(2020). Aplicación de la minería de datos en la
educación en línea. Revista colombiana de
tecnologías de avanzada, 1(29), 92-98.
https://doi.org/10.24054/16927257.v29.n29.20
17.194
[31]. Rosenstrauch, M. J., Pannen, T. J., &
Krüger, J. (2018). Human robot collaboration -
Using kinect v2 for ISO/TS 15066 speed and
separation monitoring. Procedia CIRP, 76, 183–
186.
https://doi.org/10.1016/j.procir.2018.01.026
[32]. Salas, D. (2016). Revolución 4.0.
Ingeniería e
Innovación, 4(2), 5-6.
https://revistas.unicordoba.edu.co/index.php/rii
/issue/view/131
[33]. Schleer, P., Drobinsky, S., & Radermacher,
K. (2019). Evaluation of Different Modes of
Haptic Guidance for Robotic Surgery. IFACPapersOnLine,
51(34), 97–103.
https://doi.org/10.1016/j.ifacol.2019.01.035
[34]. Schou, C., Andersen, R. S., Chrysostomou,
D., Bøgh, S., & Madsen, O. (2018). Skill-based
instruction of collaborative robots in industrial
settings. Robotics and Computer-Integrated
[41]. Manufacturing, 53(March), 72–80.
https://doi.org/10.1016/j.rcim.2018.03.008
[35]. Turja, T., Aaltonen, I., Taipale, S., &
Oksanen, A. (2019). Robot acceptance model for
care (RAM-care): A principled approach to the
intention to use care robots. Information &
Management,
((in press)), 103220.
https://doi.org/10.1016/j.im.2019.103220
[36]. Vasconez, J. P., Kantor, G. A., & Auat
Cheein, F. A. (2019). Human–robot interaction in
agriculture: A survey and current challenges.
Biosystems Engineering, 179, 35–48.
https://doi.org/10.1016/j.biosystemseng.2018.1
2.005
[37]. Wrede, S., Emmerich, C., Grünberg, R.,
Nordmann, A., Swadzba, A., & Steil, J. (2013). A
User Study on Kinesthetic Teaching of Redundant
Robots in Task and Configuration Space. Journal
of Human-Robot Interaction, 2(1), 56–81.
https://doi.org/10.5898/jhri.2.1.wrede
[38]. Xu, Y., Ding, C., Shu, X., Gui, K.,
Bezsudnova, Y., Sheng, X., & Zhang, D. (2019).
Shared control of a robotic arm using noninvasive
brain–computer interface and computer vision guidance.
Robotics and Autonomous
Systems, 115, 121–129.
https://doi.org/10.1016/j.robot.2019.02.014
[39]. Zakharyan, E. (2017). DESARROLLO DE
APLIACIONES MEDIANTE
ROBOTS
COLABORATIVOS BASADAS EN INTERFACES
NATURALES.