SISTEMA DE CONTROL CINEMÁTICO GUIADO Y COLABORATIVO CON USO DE VISIÓN ARTIFICIAL PARA FINES DE APRENDIZAJE DE TRAYECTORIAS DE LAS EXTREMIDADES SUPERIORES EN TECNOACADEMIA CÚCUTA DEL SENA NDS
##plugins.themes.bootstrap3.article.main##
En este proyecto se estudia la morfología del
brazo humano con la finalidad de construir un
robot a partir de los criterios de diseño
necesarios para establecer la morfología que
mejor se adapte a los movimientos de las
extremidades superiores de dicho ser humano,
para esto es necesario estudiar las diferentes
formas de calcular el modelo cinemático del
robot, y así poder calcular el control cinemático
que establece la relación entre las velocidades de
las articulaciones. El producto de este trabajo es
desarrollar el control cinemático guiado y
colaborativo mediante percepción y aprendizaje
de trayectorias obtenidas por visión artificial de
los de las extremidades superiores del ser
humano. primordialmente se estudiará los
métodos de control cinemático guiado y por
medio de los criterios de diseño se obtendrá el
control cinemático guiado.
Descargas
##plugins.themes.bootstrap3.article.details##
Anuar, O. (2018). Vision-based Robot
Manipulator for Industrial Applications. Procedia
Computer Science, 133, 205–212.
https://doi.org/10.1016/j.procs.2018.07.025
[2]. Acevedo Meza, H., Mendoza García, J. L. ., &
Sepúlveda Mora, S. B. . (2020). Estrategias de
Control MPPT aplicadas en un Convertidor
DC/DC Tipo Boost para Sistemas Fotovoltaicos.
Revista Colombiana de Tecnologías de Avanzada,
2(30), 102-108.
https://doi.org/10.24054/16927257.v30.n30.20
17.175
[3]. Batlle, J. A., Font, J. M., & Escoda, J. (2004). Guiado
de un robot móvil con cinemática de triciclo.
Anales de Ingeniería Mecánica, 15(4), 2981–
2986.
[4]. Bayona Ibáñez, E. ., & Ricon Parada, I. K. . (2020).
Hábitos de estudio y rendimiento académico en
los estudiantes de ingeniería mecánica. Revista
Colombiana de Tecnologías de Avanzada, 1(29),
64-69.
https://doi.org/10.24054/16927257.v29.n29.20
17.191
[5]. Casadiego SAC, Rondón CVN. Caracterización
para la ubicación en la captura de video aplicado
a técnicas de visión artificial en la detección de
personas Revista Tecnologias de Avanzada -
Uipamplona - Journal 2020 ISSN: 1692-7257 -
Vol2 – N 36 - 2020.
[6]. Catalunya, G. De. (2011). Aplicación práctica de la
visión artificial en el control de procesos
industriales.
[7]. COGNEX. (2003). Introducción a la visión
artificial. Una guía para la automatización de
procesos y mejoras de calidad.
[8]. F. A. Guasmayan y N. A. González, “Estado del arte
de redes educativas para el intercambio de
conocimientos en robótica educativa”, Ingeniería
e Innovación, vol. 7, n.° 2, pp. 17-21, 2019.
https://doi.org/10.21897/ 23460466.1784.
[9]. Fang, B., Guo, X., Wang, Z., Li, Y., Elhoseny, M., &
Yuan, X. (2019). Collaborative task assignment of
interconnected, affective robots towards
autonomous healthcare assistant. Future
Generation Computer Systems, 92, 241–251.
https://doi.org/10.1016/j.future.2018.09.069
[10]. Feng, X., Jiang, Y., Yang, X., Du, M., & Li, X.
(2019). Computer vision algorithms and
hardware implementations: A survey.
Integration, 69(August), 309–320.
https://doi.org/10.1016/j.vlsi.2019.07.005
[11]. Fernández Samacá, L. ., Mesa Mesa, L. A. .,
& Pérez Holguín, W. J. . (2020). Investigación
formativa para estudiantes de ingeniería
utilizando robótica. Revista Colombiana de
Tecnologías de Avanzada, 2(28), 30-38.
https://doi.org/10.24054/16927257.v28.n28.20
16.203
[12]. Francesco, P., & Paolo, G. G. (2017). AURA:
An Example of Collaborative Robot for
Automotive and General Industry Applications.
Procedia Manufacturing, 11(June), 338–345.
https://doi.org/10.1016/j.promfg.2017.07.116
[13]. Goldberg, K. (2019). Robots and the
return to collaborative intelligence. Nature
Machine Intelligence, 1(1), 2–4.
https://doi.org/10.1038/s42256-018-0008-x
[14]. Guiffo Kaigom, E., & Roßmann, J. (2017).
Physics-based simulation for manual robot
guidance—An eRobotics approach. Robotics and
Computer-Integrated Manufacturing, 43, 155–
163. https://doi.org/10.1016/j.rcim.2015.09.015
[15]. Kadir, B. A., Broberg, O., & Conceição, C. S.
da. (2019). Current research and future
perspectives on human factors and ergonomics in
Industry 4.0. Computers and Industrial
Engineering, 137(December 2018), 106004.
https://doi.org/10.1016/j.cie.2019.106004
[16]. Laganowska, M. (2019). Application of
vision systems to the navigation of mobile robots
using markers. Transportation Research
Procedia, 40, 1449–1452.
https://doi.org/10.1016/j.trpro.2019.07.200
[17]. Lambraño García, E. D., Lázaro Plata, J. L. .,
& Trigos Quintero, A. E. . (2020). Revisión de
técnicas de sistemas de visión artificial para la
inspección de procesos de soldadura TIPO
GMAW. Revista Colombiana de Tecnologías de
Avanzada, 1(29), 47-57.
https://doi.org/10.24054/16927257.v29.n29.20
17.189
[18]. Levratti, A., Riggio, G., Fantuzzi, C., De
Vuono, A., & Secchi, C. (2019). TIREBOT: A
collaborative robot for the tire workshop.
Robotics and Computer-Integrated
Manufacturing, 57(December 2018), 129–137.
https://doi.org/10.1016/j.rcim.2018.11.001
[19]. Li, Y., & Ge, S. S. (2016). Force tracking
control for motion synchronization in humanrobot
collaboration.
Robotica, 34(6), 1260–1281.
https://doi.org/10.1017/s0263574714002240
[20].Lins, T., Augusto, R., & Oliveira, R. (2020).
Cyber-physical production systems retrofitting in
context of industry 4 . 0. Computers & Industrial
Engineering, 139(November 2019), 106193.
https://doi.org/10.1016/j.cie.2019.106193
[21]. M. Solarte, G. A. Ramírez and D. A.
Jaramillo, “Hábitos de ingreso y resultados en las
evaluaciones en cursos en línea masivos con
reconocimiento académico,” Ing. E Innov., vol.
5, 1, 2017.
[22]. Massa, D., Callegari, M., & Cristalli, C.
(2015). Manual guidance for industrial robot
programming. Industrial Robot, 42(5), 457–465.
https://doi.org/10.1108/IR-11-2014-0413
[23]. Mohammed, A., & Wang, L. (2018).
Brainwaves driven human-robot collaborative
assembly. CIRP Annals, 67(1), 13–16.
https://doi.org/10.1016/j.cirp.2018.04.048
[24]. Niño Rondón, C. V. ., Castro Casadiego, S. A. .,
& Medina Delgado, B. . (2020).
Caracterización para la ubicación en la captura de
video aplicado a técnicas de visión artificial en la
detección de personas. Revista Colombiana de
Tecnologías de Avanzada, 2(36), 83-88.
https://doi.org/10.24054/16927257.v36.n36.20
20.24
[25]. Odorico, A. (2004). Marco teórico para
una robótica pedagógica. Revista de Informática
Educativa y Medios Audiovisuales Vol. 1(3), 1(3),
34–46. Recuperado de
http://laboratorios.fi.uba.ar/lie/Revista/Articulo
s/010103/A4oct2004.pdf
[26]. Omar Arturo, D. R., Alejandro, J. S.,
Vicente, P. V., Francisco, R. S., & Gabriel, S. C.
(2011). Neurorehabilitación Robótica Basada en
Guiado Kinestésico Local para Miembro Superior
con Movimiento Involuntario. Ciencia
Universitaria, 2(February 2016), 19–33.
[27]. Ospina Toro, D. ., Toro Ocampo, E. M. ., &
Gallego Rendón, R. A. . (2020). Solución del
MDVRP usando el algoritmo de búsqueda local
iterada. Revista Colombiana de Tecnologías de
Avanzada, 1(31), 120-127.
https://doi.org/10.24054/16927257.v31.n31.2018.139
[28]. Oyekan, J. O., Hutabarat, W., Tiwari, A.,
Grech, R., Aung, M. H., Mariani, M. P., … Dupuis, C.
(2019). The effectiveness of virtual environments
in developing collaborative strategies between
industrial robots and humans. Robotics and
Computer-Integrated
Manufacturing,
55(September
2017), 41–54.
https://doi.org/10.1016/j.rcim.2018.07.006
[29]. Realyvásquez-Vargas, A., Cecilia
Arredondo-Soto, K., Luis García-Alcaraz, J., Yail
Márquez-Lobato, B., & Cruz-García, J. (2019).
Introduction and configuration of a collaborative
robot in an assembly task as a means to decrease
occupational risks and increase efficiency in a
manufacturing company. Robotics and ComputerIntegrated
Manufacturing, 57(December 2018),
315–328.
https://doi.org/10.1016/j.rcim.2018.12.015
[30]. Rosado Gómez, A. A. ., & Verjel Ibáñez, A. .
(2020). Aplicación de la minería de datos en la
educación en línea. Revista colombiana de
tecnologías de avanzada, 1(29), 92-98.
https://doi.org/10.24054/16927257.v29.n29.20
17.194
[31]. Rosenstrauch, M. J., Pannen, T. J., &
Krüger, J. (2018). Human robot collaboration -
Using kinect v2 for ISO/TS 15066 speed and
separation monitoring. Procedia CIRP, 76, 183–
186.
https://doi.org/10.1016/j.procir.2018.01.026
[32]. Salas, D. (2016). Revolución 4.0.
Ingeniería e
Innovación, 4(2), 5-6.
https://revistas.unicordoba.edu.co/index.php/rii
/issue/view/131
[33]. Schleer, P., Drobinsky, S., & Radermacher,
K. (2019). Evaluation of Different Modes of
Haptic Guidance for Robotic Surgery. IFACPapersOnLine,
51(34), 97–103.
https://doi.org/10.1016/j.ifacol.2019.01.035
[34]. Schou, C., Andersen, R. S., Chrysostomou,
D., Bøgh, S., & Madsen, O. (2018). Skill-based
instruction of collaborative robots in industrial
settings. Robotics and Computer-Integrated
[41]. Manufacturing, 53(March), 72–80.
https://doi.org/10.1016/j.rcim.2018.03.008
[35]. Turja, T., Aaltonen, I., Taipale, S., &
Oksanen, A. (2019). Robot acceptance model for
care (RAM-care): A principled approach to the
intention to use care robots. Information &
Management,
((in press)), 103220.
https://doi.org/10.1016/j.im.2019.103220
[36]. Vasconez, J. P., Kantor, G. A., & Auat
Cheein, F. A. (2019). Human–robot interaction in
agriculture: A survey and current challenges.
Biosystems Engineering, 179, 35–48.
https://doi.org/10.1016/j.biosystemseng.2018.1
2.005
[37]. Wrede, S., Emmerich, C., Grünberg, R.,
Nordmann, A., Swadzba, A., & Steil, J. (2013). A
User Study on Kinesthetic Teaching of Redundant
Robots in Task and Configuration Space. Journal
of Human-Robot Interaction, 2(1), 56–81.
https://doi.org/10.5898/jhri.2.1.wrede
[38]. Xu, Y., Ding, C., Shu, X., Gui, K.,
Bezsudnova, Y., Sheng, X., & Zhang, D. (2019).
Shared control of a robotic arm using noninvasive
brain–computer interface and computer vision guidance.
Robotics and Autonomous
Systems, 115, 121–129.
https://doi.org/10.1016/j.robot.2019.02.014
[39]. Zakharyan, E. (2017). DESARROLLO DE
APLIACIONES MEDIANTE
ROBOTS
COLABORATIVOS BASADAS EN INTERFACES
NATURALES.