|
|
Computadoras, origen de Inteligencia Artificial
Ricardo Luna |
Leer
un texto, extraer información a partir de él y contestar
preguntas acerca de lo leído son tareas en las que el ser humano
hace uso de su inteligencia y de las que podría decirse que
son sencillas, pero si éstas son llevadas a cabo por una computadora
entonces el asunto es diferente, pues se está desarrollando
Inteligencia Artificial (IA).
En opinión de Everardo García Menier, investigador adscrito
al Departamento de Inteligencia Artificial de la UV, en términos
de la IA, el procesamiento inteligente de textos es una operación
que pertenece a este campo: “Si un ente artificial ejecuta una
conducta que puede ser considerada inteligente, entonces se está
haciendo inteligencia artificial”.
Haciendo
un poco de historia, el procesamiento inteligente de textos se desprende
de otra disciplina más ambiciosa que es el procesamiento de
lenguaje natural, el cual pretendía que una computadora “comprendiera”
el significado de una frase, oración o texto escrito en el
lenguaje que hablamos cotidianamente.
A la fecha, los autores más optimistas piensan que esta tarea
no es alcanzable en el corto plazo; los más pesimistas la consideran
como IA completa, haciendo un símil con los problemas NP completos,
es decir con aquellos problemas que por el consumo de insumos computacionales
son difíciles de aplicar.
Del procesamiento inteligente de textos y aplicaciones en IA, continuó
García Menier, podríamos remontarnos hacia el pasado
a un “experimento” que fue uno de los puntos de partida
para el nacimiento de la IA: la Prueba de Turing, que consiste en
tener a una persona y a un ente artificial desconocido realizando
lo que actualmente se conoce como un chat. Si la persona sale convencida
de que estuvo hablando con otra, (aunque en realidad el ente con el
que sostuvo el chat era una computadora) entonces se puede considerar
que esa computadora es inteligente.
Difícilmente podría pensarse en construir un sistema
que pasara esta prueba y que no incluyera un módulo que “comprendiera”
el lenguaje natural, es claro que otro elemento indispensable sería
un generador de lenguaje y lo más difícil un módulo
que generara una contestación coherente a lo leído.
Con el gigantesco crecimiento de la información textual almacenada
electrónicamente se hizo imposible manejarla de forma manual,
esto dio auge a los sistemas para realizar procesamiento inteligente
de textos con el fin de poder realizar un análisis, de forma
automática, de esta enorme cantidad de información;
entonces, se desarrollaron gran cantidad de ellos siguiendo diferentes
enfoques y, además, fueron creados para usos especiales.
El investigador universitario aclaró que este tipo de sistemas
tienen una gran cantidad de usos, entre los más importantes
podríamos mencionar los siguientes: “La recuperación
de información, que consiste en proporcionar a la computadora
una gran cantidad de textos y después pedirle que los liste,
de entre todos, sólo aquellos que traten de un tema específico”.
Otro de ellos es la extracción de información, que “consiste
en proporcionar a la computadora una serie de textos y después
hacerle preguntas que sean contestadas con la información obtenida
después de ‘leerlos’; también está
la clasificación de textos, ahí la tarea a realizar
por la computadora es clasificarlos de acuerdo al tema que tratan,
por ejemplo: deportes, política, educación”.
Para el análisis de “tendencias” también
se utiliza el sistema de procesamiento inteligente de textos: “En
este caso la computadora debe obtener, con base en los textos analizados,
la tendencia que presenta algún fenómeno. Por ejemplo,
si es época de campañas políticas se proporcionará
a la computadora una serie de textos periodísticos que traten
acerca de los candidatos; entonces la computadora debe ser capaz de
realizar afirmaciones como: ‘De todos los candidatos el que
goza de mayor popularidad es X’ o ‘el candidato Y perdió
popularidad debido a las declaraciones que hizo’, etcétera”,
abundó.
El resumen automático de textos consiste en proporcionar a
la computadora un texto y obtener como salida un resumen del mismo.
García Menier destacó que éste, como todo resumen,
debe ser de tamaño considerablemente menor que el original
y comprender la información relevante que aquél contenía:
“Esto puede ser muy útil, por ejemplo, para presentar
un sumario de las noticias del día para las personas que tienen
que estar bien informadas, pero que no tienen el tiempo suficiente
como para leer las notas completas en los diarios”.
La aplicación más reciente descansa en el descubrimiento
de conocimiento en bases de datos textuales (Text Mining),
la cual, explicó el especialista: “Consiste en obtener
de los textos almacenados cierto conocimiento que no está explícito
y que incluso está ‘repartido’ entre varios textos;
por ejemplo se pueden analizar las historias clínicas de miles
de pacientes de un hospital y obtener cierto conocimiento ‘oculto’
entre estas historias como los síntomas que caracterizan a
una enfermedad o los tratamientos que han dado mejores resultados”
etcétera. |
|
|
|
|
|
|
|
|
|
|