Año 5 • No. 164 • enero 17 de 2005 Xalapa • Veracruz • México
Publicación Semanal


 Páginas Centrales  

 Información General

 
Arte Universitario

 
Foro Académico

 
Date Vuelo

 Halcones al Vuelo

 Contraportada


 Números Anteriores


 Créditos

 

 

 
Computadoras, origen de Inteligencia Artificial
Ricardo Luna
Leer un texto, extraer información a partir de él y contestar preguntas acerca de lo leído son tareas en las que el ser humano hace uso de su inteligencia y de las que podría decirse que son sencillas, pero si éstas son llevadas a cabo por una computadora entonces el asunto es diferente, pues se está desarrollando Inteligencia Artificial (IA).

En opinión de Everardo García Menier, investigador adscrito al Departamento de Inteligencia Artificial de la UV, en términos de la IA, el procesamiento inteligente de textos es una operación que pertenece a este campo: “Si un ente artificial ejecuta una conducta que puede ser considerada inteligente, entonces se está haciendo inteligencia artificial”.


Haciendo un poco de historia, el procesamiento inteligente de textos se desprende de otra disciplina más ambiciosa que es el procesamiento de lenguaje natural, el cual pretendía que una computadora “comprendiera” el significado de una frase, oración o texto escrito en el lenguaje que hablamos cotidianamente.

A la fecha, los autores más optimistas piensan que esta tarea no es alcanzable en el corto plazo; los más pesimistas la consideran como IA completa, haciendo un símil con los problemas NP completos, es decir con aquellos problemas que por el consumo de insumos computacionales son difíciles de aplicar.

Del procesamiento inteligente de textos y aplicaciones en IA, continuó García Menier, podríamos remontarnos hacia el pasado a un “experimento” que fue uno de los puntos de partida para el nacimiento de la IA: la Prueba de Turing, que consiste en tener a una persona y a un ente artificial desconocido realizando lo que actualmente se conoce como un chat. Si la persona sale convencida de que estuvo hablando con otra, (aunque en realidad el ente con el que sostuvo el chat era una computadora) entonces se puede considerar que esa computadora es inteligente.

Difícilmente podría pensarse en construir un sistema que pasara esta prueba y que no incluyera un módulo que “comprendiera” el lenguaje natural, es claro que otro elemento indispensable sería un generador de lenguaje y lo más difícil un módulo que generara una contestación coherente a lo leído.

Con el gigantesco crecimiento de la información textual almacenada electrónicamente se hizo imposible manejarla de forma manual, esto dio auge a los sistemas para realizar procesamiento inteligente de textos con el fin de poder realizar un análisis, de forma automática, de esta enorme cantidad de información; entonces, se desarrollaron gran cantidad de ellos siguiendo diferentes enfoques y, además, fueron creados para usos especiales.

El investigador universitario aclaró que este tipo de sistemas tienen una gran cantidad de usos, entre los más importantes podríamos mencionar los siguientes: “La recuperación de información, que consiste en proporcionar a la computadora una gran cantidad de textos y después pedirle que los liste, de entre todos, sólo aquellos que traten de un tema específico”.

Otro de ellos es la extracción de información, que “consiste en proporcionar a la computadora una serie de textos y después hacerle preguntas que sean contestadas con la información obtenida después de ‘leerlos’; también está la clasificación de textos, ahí la tarea a realizar por la computadora es clasificarlos de acuerdo al tema que tratan, por ejemplo: deportes, política, educación”.

Para el análisis de “tendencias” también se utiliza el sistema de procesamiento inteligente de textos: “En este caso la computadora debe obtener, con base en los textos analizados, la tendencia que presenta algún fenómeno. Por ejemplo, si es época de campañas políticas se proporcionará a la computadora una serie de textos periodísticos que traten acerca de los candidatos; entonces la computadora debe ser capaz de realizar afirmaciones como: ‘De todos los candidatos el que goza de mayor popularidad es X’ o ‘el candidato Y perdió popularidad debido a las declaraciones que hizo’, etcétera”, abundó.

El resumen automático de textos consiste en proporcionar a la computadora un texto y obtener como salida un resumen del mismo. García Menier destacó que éste, como todo resumen, debe ser de tamaño considerablemente menor que el original y comprender la información relevante que aquél contenía: “Esto puede ser muy útil, por ejemplo, para presentar un sumario de las noticias del día para las personas que tienen que estar bien informadas, pero que no tienen el tiempo suficiente como para leer las notas completas en los diarios”.

La aplicación más reciente descansa en el descubrimiento de conocimiento en bases de datos textuales (Text Mining), la cual, explicó el especialista: “Consiste en obtener de los textos almacenados cierto conocimiento que no está explícito y que incluso está ‘repartido’ entre varios textos; por ejemplo se pueden analizar las historias clínicas de miles de pacientes de un hospital y obtener cierto conocimiento ‘oculto’ entre estas historias como los síntomas que caracterizan a una enfermedad o los tratamientos que han dado mejores resultados” etcétera.