{"id":56988,"date":"2018-10-26T13:52:06","date_gmt":"2018-10-26T18:52:06","guid":{"rendered":"https:\/\/www.uv.mx\/prensa\/?p=56988"},"modified":"2018-10-29T12:06:48","modified_gmt":"2018-10-29T18:06:48","slug":"estudiantes-participaron-en-el-seminario-de-interfaces-inteligentes","status":"publish","type":"post","link":"https:\/\/www.uv.mx\/prensa\/general\/estudiantes-participaron-en-el-seminario-de-interfaces-inteligentes\/","title":{"rendered":"Estudiantes participaron en el Seminario de Interfaces Inteligentes"},"content":{"rendered":"<ul>\n<li><em>Presentaron resultados sobre la creaci\u00f3n de ambientes virtuales e interpretaci\u00f3n de gestos en sensores de movimiento<\/em><\/li>\n<li><em>Una de sus propuestas es utilizar el interfaz conocido como <\/em>Leap Motion<em>, semejante a la consola Kinect<\/em><\/li>\n<\/ul>\n<p>&nbsp;<\/p>\n<div id=\"attachment_56924\" style=\"width: 732px\" class=\"wp-caption aligncenter\"><a href=\"https:\/\/www.uv.mx\/prensa\/files\/2018\/10\/251018-seminario-interfaces-inteligentes-1.jpg\"><img aria-describedby=\"caption-attachment-56924\" decoding=\"async\" loading=\"lazy\" class=\"size-full wp-image-56924\" src=\"https:\/\/www.uv.mx\/prensa\/files\/2018\/10\/251018-seminario-interfaces-inteligentes-1.jpg\" alt=\"\" width=\"722\" height=\"482\" srcset=\"https:\/\/www.uv.mx\/prensa\/files\/2018\/10\/251018-seminario-interfaces-inteligentes-1.jpg 722w, https:\/\/www.uv.mx\/prensa\/files\/2018\/10\/251018-seminario-interfaces-inteligentes-1-300x200.jpg 300w\" sizes=\"(max-width: 722px) 100vw, 722px\" \/><\/a><p id=\"caption-attachment-56924\" class=\"wp-caption-text\">Julio Ezequiel Gonz\u00e1lez, egresado de la UNAM, habl\u00f3 sobre la generaci\u00f3n de entornos virtuales<\/p><\/div>\n<p>&nbsp;<\/p>\n<p><strong><em>David Sandoval Rodr\u00edguez<\/em><\/strong><\/p>\n<p><strong><em>25\/10\/18, Xalapa, Ver.-<\/em><\/strong> Con la participaci\u00f3n de estudiantes de la Licenciatura en Ciencias de la Computaci\u00f3n de la Facultad de Ciencias de la Universidad Nacional Aut\u00f3noma de M\u00e9xico (UNAM), inici\u00f3 el Seminario de Interfaces Inteligentes en el <a href=\"https:\/\/www.uv.mx\/ciia\/\">Centro de Investigaci\u00f3n en Inteligencia Artificial<\/a> (CIIA) de la Universidad Veracruzana (UV).<\/p>\n<p>El evento se realiz\u00f3 los d\u00edas jueves 25 y viernes 26 de octubre en el auditorio del CIIA, cont\u00f3 con la participaci\u00f3n de acad\u00e9micos y estudiantes de la UNAM y de la UV en tem\u00e1ticas como rob\u00f3tica m\u00f3vil, interacci\u00f3n humano-computadora, interacci\u00f3n humano-robot, reconocimiento y s\u00edntesis de la lengua de se\u00f1as mexicana, rob\u00f3tica de servicios, graficaci\u00f3n por computadora, generaci\u00f3n de escenarios virtuales, interfaces para rehabilitaci\u00f3n y juegos serios.<\/p>\n<p>As\u00ed lo detall\u00f3 en la inauguraci\u00f3n Homero Vladimir R\u00edos Figueroa, acad\u00e9mico e investigador del CIIA, quien dio paso a la primera ponencia a cargo de Julio Ezequiel Gonz\u00e1lez Rojas, egresado de la Licenciatura de Ciencias de la Computaci\u00f3n en la UNAM, quien present\u00f3 el trabajo \u201cGeneraci\u00f3n procedural con gram\u00e1ticas y funciones de ruido para ambientes urbanos delimitados por distritos\u201d.<\/p>\n<p>El universitario explic\u00f3 que los resultados son parte de su trabajo de tesis, precis\u00f3 que la generaci\u00f3n procedural hace referencia al uso de un algoritmo para generar contenido que com\u00fanmente ser\u00eda producido por un ser humano.<\/p>\n<p>Dentro del c\u00f3mputo gr\u00e1fico esto es de particular inter\u00e9s porque facilita el trabajo de generar un ambiente urbano virtual, vegetaci\u00f3n, caminos, mallas, mapas o texturas en 3D; tambi\u00e9n \u201ces una buena opci\u00f3n para desarrolladores que no tengan un alto presupuesto y por consiguiente no pueden contratar personal especializado\u201d, coment\u00f3.<\/p>\n<p>\u201cUna de las partes importantes al utilizar las interfaces inteligentes es el ambiente en que las modelamos; en este caso podemos tener un ambiente que pueda ser simulado por un agente rob\u00f3tico dentro de un ambiente urbano\u201d, explic\u00f3.<\/p>\n<p>Las principales aplicaciones de este procedimiento est\u00e1n dentro de los videojuegos, animaci\u00f3n y simulaci\u00f3n en ambientes virtuales, refiri\u00f3 Gonz\u00e1lez Rojas al comentar que su trabajo de tesis se enfoc\u00f3 a la generaci\u00f3n de uno de estos ambientes utilizando funciones de ruido y gram\u00e1ticas adaptadas al sistema L.<\/p>\n<p>Explic\u00f3 que el realismo en t\u00e9rminos de dise\u00f1o de un ambiente virtual se refiere a la inmersi\u00f3n que tiene el usuario dentro del ambiente, \u201ctambi\u00e9n debe tener elementos de imprevisibilidad\u201d.<\/p>\n<p>A continuaci\u00f3n, Ulises Manuel C\u00e1rdenas, tambi\u00e9n egresado de la UNAM, en colaboraci\u00f3n con el propio Julio Ezequiel Gonz\u00e1lez presentaron la ponencia \u201cInterpretaci\u00f3n de gestos de construcci\u00f3n de objetos para el sensor de movimiento <em>Leap Motion\u2019<\/em>\u201d.<\/p>\n<p>Ulises Manuel precis\u00f3: \u201cNuestro proyecto est\u00e1 motivado para generar una interfaz que sea intuitiva para seres humanos y sea utilizada de manera muy sencilla en un ambiente con gestos para construir objetos\u201d.<\/p>\n<p><em>Leap Motion<\/em> es un sensor de movimiento que utiliza un campo infrarrojo para detectar los movimientos que realiza una mano y los digitaliza; en ello se asemeja a la consola de videojuegos Kinect, explic\u00f3.<\/p>\n<p>Esta interfaz, dependiendo de la capacidad de c\u00f3mputo del equipo y de la aplicaci\u00f3n que se est\u00e9 utilizando, puede generar aproximadamente entre 20 y 200 cuadros por segundo, que en este caso se llaman <em>Snapshot<\/em> o capturas del estado de la mano en movimiento en 3D.<\/p>\n<p>Su propuesta consiste en explorar dos formas distintas para definir los gestos del movimiento de la mano, captado por <em>Leap Motion<\/em>; el primero se basa en la identificaci\u00f3n de \u201cbanderas\u201d y el segundo se basa en el uso de una red neuronal.<\/p>\n<p>La \u201cbandera\u201d es un tipo de dato cualquiera que cuando cumple determinado valor libera una secuencia de acciones, que en este caso se establecen para las distintas articulaciones de la mano y permitan identificar un gesto, que puede estar integrado por m\u00e1s de una \u201cbandera\u201d.<\/p>\n<p>Entre las ventajas de su proyecto est\u00e1 la aproximaci\u00f3n a trav\u00e9s de \u201cbanderas\u201d, que les permitir\u00e1 hacer una abstracci\u00f3n a nivel de c\u00f3digo y en el an\u00e1lisis de gestos simples es sencillo de implementar.<\/p>\n<p>Por otro lado, entre las desventajas reconoci\u00f3 que cuando la mano realiza un gesto complejo no ser\u00e1 posible elaborar un c\u00f3digo simple ni abstraer f\u00e1cilmente las \u201cbanderas\u201d involucradas a nivel de programaci\u00f3n.<\/p>\n<p>Para resolver tal problem\u00e1tica, ambos han propuesto la implementaci\u00f3n de una red neuronal que \u201cpuede servirnos mucho y debe cumplir tres caracter\u00edsticas principales: debe ser capaz de interpretar gestos que se parezcan entre s\u00ed; debe evitar interpretar m\u00e1s de un gesto a la vez y debe ser bastante veloz\u201d.<\/p>\n<p>&nbsp;<\/p>\n<div id=\"attachment_56921\" style=\"width: 732px\" class=\"wp-caption aligncenter\"><a href=\"https:\/\/www.uv.mx\/prensa\/files\/2018\/10\/251018-seminario-interfaces-inteligentes-2.jpg\"><img aria-describedby=\"caption-attachment-56921\" decoding=\"async\" loading=\"lazy\" class=\"size-full wp-image-56921\" src=\"https:\/\/www.uv.mx\/prensa\/files\/2018\/10\/251018-seminario-interfaces-inteligentes-2.jpg\" alt=\"\" width=\"722\" height=\"482\" srcset=\"https:\/\/www.uv.mx\/prensa\/files\/2018\/10\/251018-seminario-interfaces-inteligentes-2.jpg 722w, https:\/\/www.uv.mx\/prensa\/files\/2018\/10\/251018-seminario-interfaces-inteligentes-2-300x200.jpg 300w\" sizes=\"(max-width: 722px) 100vw, 722px\" \/><\/a><p id=\"caption-attachment-56921\" class=\"wp-caption-text\">Ulises Manuel, egresado de la UNAM, present\u00f3 trabajo sobre interpretaci\u00f3n de gestos del interfaz Leap Motion<\/p><\/div>\n","protected":false},"excerpt":{"rendered":"<p>\u201cNuestro proyecto est\u00e1 motivado para generar una interfaz que sea intuitiva para seres humanos y sea utilizada de manera muy sencilla en un ambiente con gestos para construir objetos\u201d<\/p>\n","protected":false},"author":1869,"featured_media":56921,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":[],"categories":[1],"tags":[],"_links":{"self":[{"href":"https:\/\/www.uv.mx\/prensa\/wp-json\/wp\/v2\/posts\/56988"}],"collection":[{"href":"https:\/\/www.uv.mx\/prensa\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.uv.mx\/prensa\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.uv.mx\/prensa\/wp-json\/wp\/v2\/users\/1869"}],"replies":[{"embeddable":true,"href":"https:\/\/www.uv.mx\/prensa\/wp-json\/wp\/v2\/comments?post=56988"}],"version-history":[{"count":0,"href":"https:\/\/www.uv.mx\/prensa\/wp-json\/wp\/v2\/posts\/56988\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.uv.mx\/prensa\/wp-json\/wp\/v2\/media\/56921"}],"wp:attachment":[{"href":"https:\/\/www.uv.mx\/prensa\/wp-json\/wp\/v2\/media?parent=56988"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.uv.mx\/prensa\/wp-json\/wp\/v2\/categories?post=56988"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.uv.mx\/prensa\/wp-json\/wp\/v2\/tags?post=56988"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}