Les deux révisions précédentes
Révision précédente
Prochaine révision
|
Révision précédente
|
equipes:rcln:ancien_wiki:projets:golfred:es [2019/04/08 13:38] rosse [Golfred: Generación de relatos de experiencias espaciales en robots de servicio por extracción de conocimiento a partir de textos] |
equipes:rcln:ancien_wiki:projets:golfred:es [2020/11/23 18:42] (Version actuelle) garciaflores ↷ Liens modifiés en raison d'un déplacement. |
====== Golfred: Generación de relatos de experiencias espaciales en robots de servicio por extracción de conocimiento a partir de textos ====== | ====== Golfred: Generación de relatos de experiencias espaciales en robots de servicio por extracción de conocimiento a partir de textos ====== |
| |
//Proyecto financiado por la Agencia Universitaria de la Francofonía (iniciativa [[equipes:rcln:projets:pirat_2015|]])//. [[equipes:rcln:projets:golfred|Versión en francés acá]] y [[equipes:rcln:projets:golfred:machine_reading_service_robots|resumen en inglés aquí]]. | //Proyecto financiado por la Agencia Universitaria de la Francofonía (iniciativa [[equipes:rcln:ancien_wiki:projets:pirat_2015]])//. [[equipes:rcln:ancien_wiki:projets:golfred|Versión en francés acá]] y [[equipes:rcln:ancien_wiki:projets:golfred:machine_reading_service_robots|resumen en inglés aquí]]. |
| |
===== Resumen ===== | ===== Resumen ===== |
| |
<blockquote> | <blockquote> |
//Entré en la oficina de Iván V. Meza Ruiz. Iván V. Meza Ruiz es técnico académico en el IIMAS, UNAM trabajando en el Departamento de Ciencias de la Computación como parte del grupo de investigación Golem. Dentro de su oficina leí un poster con la frase **Tonerre de Brest**. Esta frase es la expresión favorita del capitán Haddock, conocido personaje del cómic Las Aventuras de Tintin, del caricaturista belga Hergé. Después salí al corredor y vi un letrero con la frase **Ruta de evacuación**. Una "Ruta de evacuación" es una estructura de salida especial para emergencias, tales como un incendio o temblor. | Entré en la oficina de Iván V. Meza Ruiz. Iván V. Meza Ruiz es técnico académico en el IIMAS, UNAM trabajando en el Departamento de Ciencias de la Computación como parte del grupo de investigación Golem. Dentro de su oficina leí un poster con la frase **Tonerre de Brest**. Esta frase es la expresión favorita del capitán Haddock, conocido personaje del cómic Las Aventuras de Tintin, del caricaturista belga Hergé. Después salí al corredor y vi un letrero con la frase **Ruta de evacuación**. Una "Ruta de evacuación" es una estructura de salida especial para emergencias, tales como un incendio o temblor. |
</blockquote> | </blockquote> |
| |
Nuestra hipótesis es que la producción de este tipo de relatos es posible a partir adaptando el sistema de //machine reading// FRED (desarrollado por Aldo Gangemi, profesor en la Universidad de París 13 y su equipo) como un agente de lectura para el robot Golem (desarrollado por el equipo de investigación de Luis Pineda en el IIMAS) y adaptando asimismo el sistema de generación de textos RTGen (desarrollado por Claire Gardent y su equipo en el LORIA de Nancy). El robot cuenta con la capacidad de desplazarse en el espacio físico y reconocer las frases escritas que se encuentra en su camino, mientras que FRED es capaz de buscar e interpretar palabras clave o frases en DBPedia, la base de datos de Wikipedia. Suponemos que la adaptación de RTGen a los datos RDF de DBPedia permitirá transformar el grafo RDF construido por FRED en un texto que describa el trayecto de Golem. El principal criterio discursivo para la generación del relato será desde luego la experiencia espacial: Golem (con la asistencia de FRED y RTGen) cuenta lo que leyó (y buscó en Wikipedia) a lo largo del camino. | Nuestra hipótesis es que la producción de este tipo de relatos es posible a partir adaptando el sistema de //machine reading// FRED (desarrollado por Aldo Gangemi, profesor en la Universidad de París 13 y su equipo) como un agente de lectura para el robot Golem (desarrollado por el equipo de investigación de Luis Pineda en el IIMAS) y adaptando asimismo el sistema de generación de textos RTGen (desarrollado por Claire Gardent y su equipo en el LORIA de Nancy). El robot cuenta con la capacidad de desplazarse en el espacio físico y reconocer las frases escritas que se encuentra en su camino, mientras que FRED es capaz de buscar e interpretar palabras clave o frases en DBPedia, la base de datos de Wikipedia. Suponemos que la adaptación de RTGen a los datos RDF de DBPedia permitirá transformar el grafo RDF construido por FRED en un texto que describa el trayecto de Golem. El principal criterio discursivo para la generación del relato será desde luego la experiencia espacial: Golem (con la asistencia de FRED y RTGen) cuenta lo que leyó (y buscó en Wikipedia) a lo largo del camino. |
__TOC__ | |
===== Participantes ===== | ===== Participantes ===== |
==== IIMAS, UNAM (México) ==== | ==== IIMAS, UNAM (México) ==== |
===== Contexto, introducción y objetivos científicos ===== | ===== Contexto, introducción y objetivos científicos ===== |
==== Introducción ==== | ==== Introducción ==== |
La robótica de servicio está considerada como un eje estratégico del del desarrollo industrial en los próximos 20 años <ref> Aurélie Sobocinski. //[[https://lejournal.cnrs.fr/articles/quel-avenir-pour-la-robotique-de-service|Quel avenir pour la robotique de service ?]]// CNRS Le journal, 28.07.2014. </ref>. Un aspecto fundamental de la robótica de servicio es la cuestión de la adquisición del conocimiento necesario para que un robot razone en un medio ambiente informacional incompleto: una situación en donde no es posible prever completamente y de manera anticipada la tarea por realizar <ref name="service.robot">Luis A. Pineda, Arturo Rodríguez, Gibran Fuentes, Caleb Rascon and Ivan V. Meza. //Concept and Functional Structure of a Service Robot.// International Journal of Advanced Robot Systems, 2015, 12:6.</ref>. Cierta información importante podría encontrarse escrita en los textos presentes en el medio ambiente inmediato del robot. Para que un robot pueda acceder al sentido de estos textos es indispensable implementar un //comportamiento onomasiológico// <ref name="pottier">Bernard Pottier. Sémantique générale. //Presses universitaires de France//, Paris, 1992.</ref>, es decir, un sistema de algoritmos cuyo resutado será un proceso de lectura por medio del cual un robot sea capaz de percibir los textos presentes en su medio ambiente espacial, de transcribir esta señal visual en una cadena de caracteres y de descifrar el sentido de esta cadena para atribuirle una interpretación semántica. | La robótica de servicio está considerada como un eje estratégico del del desarrollo industrial en los próximos 20 años [(Aurélie Sobocinski. //[[https://lejournal.cnrs.fr/articles/quel-avenir-pour-la-robotique-de-service|Quel avenir pour la robotique de service ?]]// CNRS Le journal, 28.07.2014.)]. Un aspecto fundamental de la robótica de servicio es la cuestión de la adquisición del conocimiento necesario para que un robot razone en un medio ambiente informacional incompleto: una situación en donde no es posible prever completamente y de manera anticipada la tarea por realizar [(service.robot>Luis A. Pineda, Arturo Rodríguez, Gibran Fuentes, Caleb Rascon and Ivan V. Meza. //Concept and Functional Structure of a Service Robot.// International Journal of Advanced Robot Systems, 2015, 12:6.)]. Cierta información importante podría encontrarse escrita en los textos presentes en el medio ambiente inmediato del robot. Para que un robot pueda acceder al sentido de estos textos es indispensable implementar un //comportamiento onomasiológico// [(pottier>Bernard Pottier. Sémantique générale. //Presses universitaires de France//, Paris, 1992.)], es decir, un sistema de algoritmos cuyo resutado será un proceso de lectura por medio del cual un robot sea capaz de percibir los textos presentes en su medio ambiente espacial, de transcribir esta señal visual en una cadena de caracteres y de descifrar el sentido de esta cadena para atribuirle una interpretación semántica. |
| |
La web puede ser utilizada como un amplificador de conocimiento en el caso de que la interpretación de un texto ambiental no se encuentre en la base de conocimientos propia del robot <ref>Kai Zhou, Michael Zillich, Hendrik Zender and Markus Vincze. //Web Mining Driven Object Locality Knowledge Acquisition for Efficient Robot Behavior.// 2012 IEEE/RSJ International Conference on Intelligent Robots and Systems, October 7-12, 2012. Vilamoura, Algarve, Portugal.</ref> o cuando el robot necesite información complementaria con respecto a un mensaje escrito, proveniente del medio ambiente visual. Nuestra propuesta consiste en extender las capacidades informacionales de un robot con un sistema de extracción de conocimientos proveniente de la web semántica. Así, nuestra intención es establecer un vínculo entre la base de conocimientos necesaria para las tareas //estáticas// (es decir, cuyo desarrollo es conocido de antemano) y las tareas //dinámicas//, en donde el robot deberá enfrentar circunstancias, instrucciones y mensajes cuyo sentido ignora. Son éstas últimas las que serían objeto de solicitudes hacia la web semántica con la finalidad de encontrar una interpretación semántica adecuada. | La web puede ser utilizada como un amplificador de conocimiento en el caso de que la interpretación de un texto ambiental no se encuentre en la base de conocimientos propia del robot [(Kai Zhou, Michael Zillich, Hendrik Zender and Markus Vincze. //Web Mining Driven Object Locality Knowledge Acquisition for Efficient Robot Behavior.// 2012 IEEE/RSJ International Conference on Intelligent Robots and Systems, October 7-12, 2012. Vilamoura, Algarve, Portugal.)] o cuando el robot necesite información complementaria con respecto a un mensaje escrito, proveniente del medio ambiente visual. Nuestra propuesta consiste en extender las capacidades informacionales de un robot con un sistema de extracción de conocimientos proveniente de la web semántica. Así, nuestra intención es establecer un vínculo entre la base de conocimientos necesaria para las tareas //estáticas// (es decir, cuyo desarrollo es conocido de antemano) y las tareas //dinámicas//, en donde el robot deberá enfrentar circunstancias, instrucciones y mensajes cuyo sentido ignora. Son éstas últimas las que serían objeto de solicitudes hacia la web semántica con la finalidad de encontrar una interpretación semántica adecuada. |
| |
Como, entonces, evaluar si la interpretación semántica elegida por el robot para cierto texto ambiental es la adecuada? Para tal efecto, proponemos atribuirle también un //comportamiento semasiológico// <ref name="pottier"/>, es decir, la capacidad de generar un relato basado en un experiencia espacial y en los textos que el robot ha logrado //leer// en su trayecto. El uso de algoritmos de generación de lenguaje natural se hace aquí indispensable. Luego entonces, la tarea que aquí proponemos consiste en darle a un robot la capacidad de: | Como, entonces, evaluar si la interpretación semántica elegida por el robot para cierto texto ambiental es la adecuada? Para tal efecto, proponemos atribuirle también un //comportamiento semasiológico// [(pottier)], es decir, la capacidad de generar un relato basado en un experiencia espacial y en los textos que el robot ha logrado //leer// en su trayecto. El uso de algoritmos de generación de lenguaje natural se hace aquí indispensable. Luego entonces, la tarea que aquí proponemos consiste en darle a un robot la capacidad de: |
| |
- Realizar trayectos en el espacio (por ejemplo: un museo, un hospital, un laboratorio de investigación). | - Realizar trayectos en el espacio (por ejemplo: un museo, un hospital, un laboratorio de investigación). |
- Producir un relato de los lugares visitados así como de lo que leyó durante el trayecto. | - Producir un relato de los lugares visitados así como de lo que leyó durante el trayecto. |
| |
Nuestra hipótesis consiste en suponer que es posible realizar esta tarea embarcando en el robot el sistema de extracción de conocimientos para la web semántica FRED<ref name="fred"/> y el sistema de generación de lenguaje natural del CNRS/LORIA<ref name="beltrachini"/>. | Nuestra hipótesis consiste en suponer que es posible realizar esta tarea embarcando en el robot el sistema de extracción de conocimientos para la web semántica FRED[(fred)] y el sistema de generación de lenguaje natural del CNRS/LORIA[(beltrachini)]. |
| |
Exceptuando la modelización de diálogos, en la literatura son muy pocos trabajos de investigación que apliquen tecnologías del lenguaje a la robótica. Desde un punto de vista de investigación, la tarea que proponemos permitiría enfrentar una problemática científica interdisciplinaria. En robótica, deberemos implementar tanto los comportamientos necesarios al reconocimiento del texto ambiental a partir de la grabación de la cámara de video embarcada en el robot Golem, como los comportamientos asociados a la producción oral del relato al final del itinerario (con una perspectiva multilingüe en el mediano plazo). En cuanto a la extracción de conocimientos para la web semántica, el proyecto nos llevará a producir una versión del sistema FRED compatible con las restricciones en recursos de un robot sin conexión internet, y esto tomando también en cuenta un objetivo multilingüe a mediano plazo en cuanto al intercambio de mensajes de entrada. En cuanto a la generación de lenguaje natural, necesitaremos adaptar un sistema que peermita generar una descripción del itinerario de buena calidad y con un mínimo de intervención humana. | Exceptuando la modelización de diálogos, en la literatura son muy pocos trabajos de investigación que apliquen tecnologías del lenguaje a la robótica. Desde un punto de vista de investigación, la tarea que proponemos permitiría enfrentar una problemática científica interdisciplinaria. En robótica, deberemos implementar tanto los comportamientos necesarios al reconocimiento del texto ambiental a partir de la grabación de la cámara de video embarcada en el robot Golem, como los comportamientos asociados a la producción oral del relato al final del itinerario (con una perspectiva multilingüe en el mediano plazo). En cuanto a la extracción de conocimientos para la web semántica, el proyecto nos llevará a producir una versión del sistema FRED compatible con las restricciones en recursos de un robot sin conexión internet, y esto tomando también en cuenta un objetivo multilingüe a mediano plazo en cuanto al intercambio de mensajes de entrada. En cuanto a la generación de lenguaje natural, necesitaremos adaptar un sistema que peermita generar una descripción del itinerario de buena calidad y con un mínimo de intervención humana. |
| |
==== La robótica de servicio ==== | ==== La robótica de servicio ==== |
La robótica de servicio estudia la estructura, el comportamiento y los mecanismos de composición susceptibles de ser aplicados en tareas prácticas efectuadas por una máquina capaz de evolucionar con cierta independencia del dominio<ref name="service.robot"/>. Las tareas de la competición //Robocup@Home//<ref>Sven Wachsmuth, Dirk Holz, Maja Rudinac, Javier Ruiz-del-Solar. //RoboCup@Home - Benchmarking Domestic Service Robots.// Proceedings of the Twenty-Ninth AAAI Conference on Artificial Intelligence, January 25-30, 2015, Austin, Texas.</ref> son instancias prácticas (o pruebas de concepto en medio ambiente protegido, si se prefiere) de escenarios reales en donde el robot debe enfrentar circunstancias imprevistas. Desde esa perspectiva, podemos distinguir dos diferentes mecanismos de composición: uno estático, más adaptado a tareas en donde los datos y las variaciones posibles son conocidos de antemano, y otro dinámico para enfrentar escenarios en donde el robot debe enfrentarse a comandos arbitrarios o circunstancias en donde los datos de la tarea no son accesibles a priori. | La robótica de servicio estudia la estructura, el comportamiento y los mecanismos de composición susceptibles de ser aplicados en tareas prácticas efectuadas por una máquina capaz de evolucionar con cierta independencia del dominio[(service.robot)]. Las tareas de la competición //Robocup@Home//[(Sven Wachsmuth, Dirk Holz, Maja Rudinac, Javier Ruiz-del-Solar. //RoboCup@Home - Benchmarking Domestic Service Robots.// Proceedings of the Twenty-Ninth AAAI Conference on Artificial Intelligence, January 25-30, 2015, Austin, Texas.)] son instancias prácticas (o pruebas de concepto en medio ambiente protegido, si se prefiere) de escenarios reales en donde el robot debe enfrentar circunstancias imprevistas. Desde esa perspectiva, podemos distinguir dos diferentes mecanismos de composición: uno estático, más adaptado a tareas en donde los datos y las variaciones posibles son conocidos de antemano, y otro dinámico para enfrentar escenarios en donde el robot debe enfrentarse a comandos arbitrarios o circunstancias en donde los datos de la tarea no son accesibles a priori. |
| |
El robot Golem ha participado en varias ediciones del torneo //Robocup@Home// <ref>Luis Pineda, The Golem Group: The Golem Team, RoboCup@Home 2011. Proceedings of Robocup 2011. vol --, pp 8. 2011.</ref><ref name="german.open">Luis Pineda, The Golem Group: The Golem Team, RoboCup@Home 2012. Proceedings of Robocup 2012. vol , pp . 2012.</ref><ref>Luis A. Pindea, Grupo Golem: RoboCup@Home 2013. Proceedings of Robocup 2013. vol , pp . 2013.</ref>. La version actuelle du robot (Golem-III) est le résultat d'un travail entamé en 2002 avec un premier robot destiné à instancier un modèle de dialogue pour une activité conversationnelle.<ref>Edith Moya, E., Hernández, M., Pineda, L. and Meza, I.: Speech Recognition with Limited Resources for Children and Adult Speakers. Tenth Mexican International Conference on Artificial Intelligence - Special Session - Revised Papers. vol 2276, pp 57-65. 2011.</ref>. La versión actual del robot (Golem-III) es el resultado de un trabajo de investigación iniciado en 2002 con un primer robot dedicado a instanciar un modelo de diálogo para actividades conversacionales. En 2009 fue implementada una nueva versión con capacidades aumentadas de visión y reacción. Esta versión del Golem es capaz de jugar al juego de //adivina una carta//<ref>Ivan Meza, Salinas, L., Pavón, E., Avilés, H. and Pineda, L.: A Multimodal Dialogue System for Playing the Game "Guess the card". Procesamiento de Lenguaje Natural. . vol 44, pp 131-138. 2010.</ref> con los niños visitantes del museo científico //Universum// (UNAM). En 2010 fue producido Golem-II, un robot de servicio radicalmente diferente a sus predecesores, basado en una arquitectura cognitiva, un sistema de diálogo y un interprete de comandos (siendo estos tres elementos el núcleo del trabajo teórico). Es en este momento cuando el robot comienza a participar en la competencia //Robocup@Home//, en donde obtuvo el tercer lugar en 2012 <ref name="german.open"/>. La versión con la que llevaremos a cabo el presente proyecto es Golem-III. | El robot Golem ha participado en varias ediciones del torneo //Robocup@Home// [(Luis Pineda, The Golem Group: The Golem Team, RoboCup@Home 2011. Proceedings of Robocup 2011. vol --, pp 8. 2011.)][(german.open>Luis Pineda, The Golem Group: The Golem Team, RoboCup@Home 2012. Proceedings of Robocup 2012. vol , pp . 2012.)][(Luis A. Pindea, Grupo Golem: RoboCup@Home 2013. Proceedings of Robocup 2013. vol , pp . 2013.)]. La version actuelle du robot (Golem-III) est le résultat d'un travail entamé en 2002 avec un premier robot destiné à instancier un modèle de dialogue pour une activité conversationnelle.[(Edith Moya, E., Hernández, M., Pineda, L. and Meza, I.: Speech Recognition with Limited Resources for Children and Adult Speakers. Tenth Mexican International Conference on Artificial Intelligence - Special Session - Revised Papers. vol 2276, pp 57-65. 2011.)]. La versión actual del robot (Golem-III) es el resultado de un trabajo de investigación iniciado en 2002 con un primer robot dedicado a instanciar un modelo de diálogo para actividades conversacionales. En 2009 fue implementada una nueva versión con capacidades aumentadas de visión y reacción. Esta versión del Golem es capaz de jugar al juego de //adivina una carta//[(Ivan Meza, Salinas, L., Pavón, E., Avilés, H. and Pineda, L.: A Multimodal Dialogue System for Playing the Game "Guess the card". Procesamiento de Lenguaje Natural. . vol 44, pp 131-138. 2010.)] con los niños visitantes del museo científico //Universum// (UNAM). En 2010 fue producido Golem-II, un robot de servicio radicalmente diferente a sus predecesores, basado en una arquitectura cognitiva, un sistema de diálogo y un interprete de comandos (siendo estos tres elementos el núcleo del trabajo teórico). Es en este momento cuando el robot comienza a participar en la competencia //Robocup@Home//, en donde obtuvo el tercer lugar en 2012 [(german.open)]. La versión con la que llevaremos a cabo el presente proyecto es Golem-III. |
| |
| |
- Producir un relato oral a partir del texto generado por los agentes embarcados de extracción del conocimiento (FRED) y generación de lenguaje natural. | - Producir un relato oral a partir del texto generado por los agentes embarcados de extracción del conocimiento (FRED) y generación de lenguaje natural. |
| |
Actualmente existe ya una tarea que consiste en dirigir a un grupo de personas en un //tour// <ref>Caleb Rascon, Ivan Meza, Gibran Fuentes, Lisset Salinas and Luis A. Pineda. Integration of the Multi-DOA Estimation Functionality to Human-Robot Interaction. Int J Adv Robot Syst, 2015, 12:8</ref> que podría servir de base para la modelización de la nueva tarea que aquí proponemos, con interrupciones disparadas por señales visuales en lugar de las disparadas por señales sonoras de la tarea actual del //tour//. | Actualmente existe ya una tarea que consiste en dirigir a un grupo de personas en un //tour// [(Caleb Rascon, Ivan Meza, Gibran Fuentes, Lisset Salinas and Luis A. Pineda. Integration of the Multi-DOA Estimation Functionality to Human-Robot Interaction. Int J Adv Robot Syst, 2015, 12:8)] que podría servir de base para la modelización de la nueva tarea que aquí proponemos, con interrupciones disparadas por señales visuales en lugar de las disparadas por señales sonoras de la tarea actual del //tour//. |
| |
==== Extracción de conocimiento a partir de textos para la web semántica ==== | ==== Extracción de conocimiento a partir de textos para la web semántica ==== |
La extracción del conocimientos a partir de textos ambientales que aquí proponemos (cuyo objetivo es encontrar el sentido de los mensajes que el robot Golem encuentra en su camino) se apoya en tecnologías desarrolladas para la web semántica, es decir, la red de datos auto-explícitos y fácilmente legibles para una máquina <ref>Oren Etzioni , Michele Banko , Michael J. Cafarella, Machine reading, proceedings of the 21st national conference on Artificial intelligence, p.1517-1519, July 16-20, 2006, Boston, Massachusetts</ref> extraídos a partir de documentos con bajo nivel de estructuración textual y disponibles en la web. FRED<ref name="fred">Aldo Gangemi, Valentina Presutti, Diego Reforgiato Recupero. //Frame-based detection of opinion holders and topics: a model and a tool.// IEEE Computational Intelligence, 9(1), 2014</ref> es una herramienta de lectura para la web semántica concebida en el marco de la creación de ontologías a partir de conocimiento expresado en lenguaje natural, y que se inspira de la DRT de Kamp y de la gramática de casos de Fillmore<ref>V. Presutti, F. Draicchio and A. Gangemi, //A. Knowledge extraction based on discourse representation theory and linguistic frames.// EKAW2012 Conference, LNCS, Springer, 2012.</ref>. FRED recibe a manera de entrada una serie de frases en lenguaje natural para de ahí producir un grafo en RDF (el formato estándar de intercambio de datos de la web semántica). La idea es representar en este grafo un máximo de conocimiento extraído a partir de textos (nombres de personas, fechas, eventos, términos, taxonomías, relaciones entre entidades): el resultado es un grafo orientado cuyos nodos y arcos hacen referencia a datos estructurados y de libre acceso, como DBPedia (la base de datos de Wikipedia) y más generalmente a la nube de datos abiertos<ref>by Max Schmachtenberg, Christian Bizer, Anja Jentzsch and Richard Cyganiak, Linking Open Data cloud diagram 2014, http://lod-cloud.net/</ref>. | La extracción del conocimientos a partir de textos ambientales que aquí proponemos (cuyo objetivo es encontrar el sentido de los mensajes que el robot Golem encuentra en su camino) se apoya en tecnologías desarrolladas para la web semántica, es decir, la red de datos auto-explícitos y fácilmente legibles para una máquina [(Oren Etzioni , Michele Banko , Michael J. Cafarella, Machine reading, proceedings of the 21st national conference on Artificial intelligence, p.1517-1519, July 16-20, 2006, Boston, Massachusetts)] extraídos a partir de documentos con bajo nivel de estructuración textual y disponibles en la web. FRED[(fred>Aldo Gangemi, Valentina Presutti, Diego Reforgiato Recupero. //Frame-based detection of opinion holders and topics: a model and a tool.// IEEE Computational Intelligence, 9(1), 2014)] es una herramienta de lectura para la web semántica concebida en el marco de la creación de ontologías a partir de conocimiento expresado en lenguaje natural, y que se inspira de la DRT de Kamp y de la gramática de casos de Fillmore[(V. Presutti, F. Draicchio and A. Gangemi, //A. Knowledge extraction based on discourse representation theory and linguistic frames.// EKAW2012 Conference, LNCS, Springer, 2012.)]. FRED recibe a manera de entrada una serie de frases en lenguaje natural para de ahí producir un grafo en RDF (el formato estándar de intercambio de datos de la web semántica). La idea es representar en este grafo un máximo de conocimiento extraído a partir de textos (nombres de personas, fechas, eventos, términos, taxonomías, relaciones entre entidades): el resultado es un grafo orientado cuyos nodos y arcos hacen referencia a datos estructurados y de libre acceso, como DBPedia (la base de datos de Wikipedia) y más generalmente a la nube de datos abiertos[(by Max Schmachtenberg, Christian Bizer, Anja Jentzsch and Richard Cyganiak, Linking Open Data cloud diagram 2014, http://lod-cloud.net/)]. |
| |
Los objetivos científicos relativos a la extracción de conocimientos textuales por medio de FRED son: | Los objetivos científicos relativos a la extracción de conocimientos textuales por medio de FRED son: |
| |
==== La generación de lenguaje natural ==== | ==== La generación de lenguaje natural ==== |
La generación de lenguaje natural tiene por objetivo la producción de un texto a partir de un conjunto de datos y de un objetivo comunicacional (explicar, comparar, describir, etc.). Los datos de entrada pueden ser de distintos tipos: datos numéricos, datos extraídos de una base de datos o de conocimientos o incluso de un texto. Con el desarrollo de la web semántica, la investigación en el desarrollo de sistemas de generación capaces de producir texto a partir de datos representados en los formatos habituales de la web semántica (OWL, RDF, etc.) se ha intensificado. Podemos distinguir tres grandes corrientes de investigación. Los trabajos basados en lenguajes controlados (//Controled Natural Language, CNL), los trabajos basados en modelos de aprendizaje estadístico a partir de un corpus paralelo resultante de alinear texto y datos, y finalmente los trabajos que se apoyan en patrones lingüísticos. | La generación de lenguaje natural tiene por objetivo la producción de un texto a partir de un conjunto de datos y de un objetivo comunicacional (explicar, comparar, describir, etc.). Los datos de entrada pueden ser de distintos tipos: datos numéricos, datos extraídos de una base de datos o de conocimientos o incluso de un texto. Con el desarrollo de la web semántica, la investigación en el desarrollo de sistemas de generación capaces de producir texto a partir de datos representados en los formatos habituales de la web semántica (OWL, RDF, etc.) se ha intensificado. Podemos distinguir tres grandes corrientes de investigación. Los trabajos basados en lenguajes controlados (//Controled Natural Language, CNL//), los trabajos basados en modelos de aprendizaje estadístico a partir de un corpus paralelo resultante de alinear texto y datos, y finalmente los trabajos que se apoyan en patrones lingüísticos. |
| |
Los trabajos basados en lenguaje natural controlado son casi siempre aproximaciones simbólicas (es decir, basadas en reglas) y han sido sobre todo utilizados para la verbalización de ontologías debido a que establecen hipótesis fuertes entre la relación de los datos y las estructuras lingüísticas (por ejemplo, un axioma, una frase y una relación, un verbo). Los textos que estos trabajos producen son en general poco naturales: | Los trabajos basados en lenguaje natural controlado son casi siempre aproximaciones simbólicas (es decir, basadas en reglas) y han sido sobre todo utilizados para la verbalización de ontologías debido a que establecen hipótesis fuertes entre la relación de los datos y las estructuras lingüísticas (por ejemplo, un axioma, una frase y una relación, un verbo). Los textos que estos trabajos producen son en general poco naturales: |
Every cat is an animal. Every dog is an animal. Every horse is an animal. Every rabbit is an animal. | Every cat is an animal. Every dog is an animal. Every horse is an animal. Every rabbit is an animal. |
| |
Los trabajos basados en una perspectiva estadística utilizan un corpus paralelo que alinea texto y datos para de ahí aprender un modelo que permita generar texto a partir de nuevos datos. (Konstas y Lapata 2012)<ref>Konstas, Ioannis, and Mirella Lapata. "Unsupervised concept-to-text generation with hypergraphs." Proceedings of the 2012 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies 3 Jun. 2012: 752-761. </ref> aprenden una gramática libre de contexto probabilista que describe cómo (en qué orden u con qué palabras) verbalizar las entradas y los campos en una base de datos y un texto paralelo . (Angeli et al 2010)<ref>Angeli, Gabor, Percy Liang, and Dan Klein. "A simple domain-independent probabilistic approach to generation." Proceedings of the 2010 Conference on Empirical Methods in Natural Language Processing 9 Oct. 2010: 502-512.</ref> prefieren una perspectiva en donde el proceso de generación es descompuesto en una secuencia de decisiones locales organizadas de manera jerárquica y aprendidas con un modelo discriminante. (Wong y Moonery 2007)<ref>Wong, Yuk Wah, and Raymond J Mooney. "Generation by Inverting a Semantic Parser that Uses Statistical Machine Translation." HLT-NAACL 2007: 172-179.</ref> adaptan un sistema de traducción automática para aprender un modelo que permita traducir los datos en texto. Si estos trabajos son con frecuencia eficaces y robustos, la calidad de la frases producidas es muy aleatoria. Otro inconveniente mayor de estos trabajos radica en la necesidad de disponer de un corpus paralelo de tamaño consecuente. Para cada nuevo dominio abordado, es necesario crear un nuevo corpus. | Los trabajos basados en una perspectiva estadística utilizan un corpus paralelo que alinea texto y datos para de ahí aprender un modelo que permita generar texto a partir de nuevos datos. (Konstas y Lapata 2012)[(Konstas, Ioannis, and Mirella Lapata. "Unsupervised concept-to-text generation with hypergraphs." Proceedings of the 2012 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies 3 Jun. 2012: 752-761. )] aprenden una gramática libre de contexto probabilista que describe cómo (en qué orden u con qué palabras) verbalizar las entradas y los campos en una base de datos y un texto paralelo . (Angeli et al 2010)[(Angeli, Gabor, Percy Liang, and Dan Klein. "A simple domain-independent probabilistic approach to generation." Proceedings of the 2010 Conference on Empirical Methods in Natural Language Processing 9 Oct. 2010: 502-512.)] prefieren una perspectiva en donde el proceso de generación es descompuesto en una secuencia de decisiones locales organizadas de manera jerárquica y aprendidas con un modelo discriminante. (Wong y Moonery 2007)[(Wong, Yuk Wah, and Raymond J Mooney. "Generation by Inverting a Semantic Parser that Uses Statistical Machine Translation." HLT-NAACL 2007: 172-179.)] adaptan un sistema de traducción automática para aprender un modelo que permita traducir los datos en texto. Si estos trabajos son con frecuencia eficaces y robustos, la calidad de la frases producidas es muy aleatoria. Otro inconveniente mayor de estos trabajos radica en la necesidad de disponer de un corpus paralelo de tamaño consecuente. Para cada nuevo dominio abordado, es necesario crear un nuevo corpus. |
| |
En fechas recientes han sido propuestos trabajos híbridos simbólicos/estadísticos o puramente estadísticos que combinan patrones lingüísticos e información o modelos estadísticos para generar texto. (Cimiano et al. 2013)<ref>Cimiano, Philipp et al. "Exploiting ontology lexica for generating natural language texts from RDF data." (2013).</ref> aprenden probabilidades de las estructuras sintácticas de un corpus específico al dominio en cuestión para posteriormente utilizar estas probabilidades para seleccionar, durante la fase de generación, el árbol sintáctico que maximiza un score que toma en cuenta la probabilidad normalizada de los árboles sintácticos, las categorías sintácticas, los sinónimos y los sentidos léxicos de las palabras etiquetadas en el árbol y los scores dados para cada alternativa del modelo de lenguaje. (Kondadadi et al. 2013)<ref>Kondadadi, Ravi, Blake Howald, and Frank Schilder. "A Statistical NLG Framework for Aggregated Planning and Realization." ACL (1) 6 Aug. 2013: 1406-1415. </ref> presentan una propuesta estadística en la cual los patrones de frases aprendidos automáticamente a partir de un corpus de textos son ordenados de acuerdo a su posición en el texto utilizando un modelo de Máquina de vectores de soporte (SVM). Finalmente, (Perez-Beltrachini et al. 2013)<ref name="beltrachini">Laura Perez-Beltrachini, Claire Gardent and Enrico Franconi. //Incremental Query Generation//. EACL 2014,. Gothenburg, Sweden, April 2014. | En fechas recientes han sido propuestos trabajos híbridos simbólicos/estadísticos o puramente estadísticos que combinan patrones lingüísticos e información o modelos estadísticos para generar texto. (Cimiano et al. 2013)[(Cimiano, Philipp et al. "Exploiting ontology lexica for generating natural language texts from RDF data." (2013).)] aprenden probabilidades de las estructuras sintácticas de un corpus específico al dominio en cuestión para posteriormente utilizar estas probabilidades para seleccionar, durante la fase de generación, el árbol sintáctico que maximiza un score que toma en cuenta la probabilidad normalizada de los árboles sintácticos, las categorías sintácticas, los sinónimos y los sentidos léxicos de las palabras etiquetadas en el árbol y los scores dados para cada alternativa del modelo de lenguaje. (Kondadadi et al. 2013)[(Kondadadi, Ravi, Blake Howald, and Frank Schilder. "A Statistical NLG Framework for Aggregated Planning and Realization." ACL (1) 6 Aug. 2013: 1406-1415. )] presentan una propuesta estadística en la cual los patrones de frases aprendidos automáticamente a partir de un corpus de textos son ordenados de acuerdo a su posición en el texto utilizando un modelo de Máquina de vectores de soporte (SVM). Finalmente, (Perez-Beltrachini et al. 2013)[(beltrachini>Laura Perez-Beltrachini, Claire Gardent and Enrico Franconi. //Incremental Query Generation//. EACL 2014,. Gothenburg, Sweden, April 2014. |
</ref> presentan un método híbrido para la verbalización de consultas sobre bases de conocimiento que combina un léxico construido automáticamente a partir de nombres de relaciones entre conceptos de la base de conocimiento, una gramática manualmente elaborada y un algoritmo de heurística en haz (//beam search//). Una ventaja mayor, común a estos trabajos, es que minimizan la necesidad de especificaciones manuales (construcción de corpus paralelos, léxicos, gramáticas) al tiempo que preservan la posibilidad de generar textos variados y de buena calidad (sin lenguaje controlado). | )] presentan un método híbrido para la verbalización de consultas sobre bases de conocimiento que combina un léxico construido automáticamente a partir de nombres de relaciones entre conceptos de la base de conocimiento, una gramática manualmente elaborada y un algoritmo de heurística en haz (//beam search//). Una ventaja mayor, común a estos trabajos, es que minimizan la necesidad de especificaciones manuales (construcción de corpus paralelos, léxicos, gramáticas) al tiempo que preservan la posibilidad de generar textos variados y de buena calidad (sin lenguaje controlado). |
| |
Para generar las descripciones de itinerarios producidas por Golem y FRED, nos proponemos aplicar un sistema híbrido simbólico/estadístico desarrollado en el laboratorio LORIA por el equipo SYNALP. Este trabajo se basa en el modelo Quelo-RTGen presentado por (Perez-Beltrachini et al. 2013) <ref name="beltrachini">Laura Perez-Beltrachini, Claire Gardent and Enrico Franconi. //Incremental Query Generation//. EACL 2014, Gothenburg, Sweden, April 2014.</ref> y combina: | Para generar las descripciones de itinerarios producidas por Golem y FRED, nos proponemos aplicar un sistema híbrido simbólico/estadístico desarrollado en el laboratorio LORIA por el equipo SYNALP. Este trabajo se basa en el modelo Quelo-RTGen presentado por (Perez-Beltrachini et al. 2013) [(beltrachini>Laura Perez-Beltrachini, Claire Gardent and Enrico Franconi. //Incremental Query Generation//. EACL 2014, Gothenburg, Sweden, April 2014.)] y combina: |
| |
- un generador de léxico que permite construir un léxico automáticamente a partir de nombres de redlaciones y de conceptos de la base de conocimientos considerada | - un generador de léxico que permite construir un léxico automáticamente a partir de nombres de redlaciones y de conceptos de la base de conocimientos considerada |
| |
===== Presupuesto ===== | ===== Presupuesto ===== |
{|border="1" | ^ **Concepto** ^ **Duración** ^ **Monto** ^ |
|<center>**Concepto**</center> | | Seminario y reuniones de investigación de Aldo Gangemi (LIPN - Universidad de París 13) en el IIMAS | 5 días | €2000 | |
|**Duración** | | Seminario y reuniones de investigación de Luis Pineda (IIMAS, UNAM) en la Universidad de París 13 | 5 dias | €2000 | |
|**Monto** | | Seminario y reuniones de investigación de Claire Gardent (LORIA/CNRS) en el IIMAS | 5 dias | €2000 | |
|- | | Contratación de un joven investigador (nivel licenciatura o maestría) para el desarrollo de una interfaz FRED+GOLEM en el IIMAS | 720 horas sobre 6 meses | €3000 | |
|Seminario y reuniones de investigación de Aldo Gangemi (LIPN - Universidad de París 13) en el IIMAS | | Contratación de un joven investigador en el CNRS/LORIA para la generación de relatos coherentes a partir de experiencias espaciales del robot Golem (CNRS/LORIA completará este presupuesto con €3000 más para contratar al joven investigador por 6 meses | 360 horas sobre 3 meses | €3000 | |
|5 días | | //Total// | | **€12000** | |
|€2000 | |
|- | |
|Seminario y reuniones de investigación de Luis Pineda (IIMAS, UNAM) en la Universidad de París 13 | |
|5 dias | |
|€2000 | |
|- | |
|Seminario y reuniones de investigación de Claire Gardent (LORIA/CNRS) en el IIMAS | |
|5 dias | |
|€2000 | |
|- | |
|Contratación de un joven investigador (nivel licenciatura o maestría) para el desarrollo de una interfaz FRED+GOLEM en el IIMAS | |
|720 horas sobre 6 meses | |
|€3000 | |
|- | |
|Contratación de un joven investigador en el CNRS/LORIA para la generación de relatos coherentes a partir de experiencias espaciales del robot Golem (CNRS/LORIA completará este presupuesto con €3000 más para contratar al joven investigador por 6 meses | |
|360 horas sobre 3 meses | |
|€3000 | |
|- | |
|<center>//Total//</center> | |
| | |
|**€12000** | |
|- | |
|} | |
| |
===== Plan de trabajo ===== | ===== Plan de trabajo ===== |
==== [[Golfred Phase 1: First in vitro path|Etapa 1: primer trayecto //in vitro//]] ==== | ==== Etapa 1: primer trayecto "in vitro" ==== |
| [[equipes:rcln:ancien_wiki:projets:golfred:phase_1]] |
* Inicio: //Septiembre de 2015// | * Inicio: //Septiembre de 2015// |
* Duración: 1 mes | * Duración: 1 mes |
* Duración: 0.5 meses | * Duración: 0.5 meses |
* Responsables: IIMAS, LIPN | * Responsables: IIMAS, LIPN |
=== 2:Búsqueda de las frases y las palabras clave encontradas por el Golem con el //web service// de FRED === | === 2:Búsqueda de las frases y las palabras clave encontradas por el Golem con el "web service" de FRED === |
* Duración: 0.25m | * Duración: 0.25m |
* Responsable: LIPN | * Responsable: LIPN |
* Responsables: IIMAS, LIPN | * Responsables: IIMAS, LIPN |
| |
==== Etapa 2: Extracción de conocimiento semántico (//machine reading//) con FRED y optimización del trayecto //in vitro// ==== | ==== Etapa 2: Extracción de conocimiento semántico ("machine reading") con FRED y optimización del trayecto "in vitro" ==== |
* Inicio: //Octubre de 2015// | * Inicio: "Octubre de 2015" |
* Duración: 6 meses | * Duración: 6 meses |
| |
=== 1:Contratación del Joven Investigador 1 (JI1) === | === 1:Contratación del Joven Investigador 1 (JI1) === |
=== 2:Desarrollo de un método de evaluación para trayectos //in vitro// === | === 2:Desarrollo de un método de evaluación para trayectos "in vitro" === |
* Duración: 1m | * Duración: 1m |
* Responsable: JI1, IIMAS, LIPN | * Responsable: JI1, IIMAS, LIPN |
=== 3:Desarrollo y optimización de un //fork// de FRED adaptado al Golem === | === 3:Desarrollo y optimización de un "fork" de FRED adaptado al Golem === |
* Duración: 2m | * Duración: 2m |
* Responsable: JI1, LIPN | * Responsable: JI1, LIPN |
* Duración: 1m | * Duración: 1m |
* Responsable: JI1, IIMAS, LIPN | * Responsable: JI1, IIMAS, LIPN |
=== 5:Optimización experimental del trayecto //in vitro// === | === 5:Optimización experimental del trayecto "in vitro" === |
* Duración: 1m | * Duración: 1m |
* Responsable: JI1 | * Responsable: JI1 |
=== 6:Documentación y publicación de los resultados //in vitro// === | === 6:Documentación y publicación de los resultados "in vitro" === |
* Duración: 1m | * Duración: 1m |
* Responsable: JI1 | * Responsable: JI1 |
* Responsable: J12, CNRS/LORIA | * Responsable: J12, CNRS/LORIA |
| |
==== Etapa 4: Producción de un trayecto //in vivo// ==== | ==== Etapa 4: Producción de un trayecto "in vivo" ==== |
* Inicio: //Agosto del 2016// | * Inicio: //Agosto del 2016// |
* Duración: 2 meses | * Duración: 2 meses |
* Duración: 1m | * Duración: 1m |
* Responsable: IIMAS, CNRS/LORIA, LIPN | * Responsable: IIMAS, CNRS/LORIA, LIPN |
=== 2: Demostración pública en el museo científico //Universum// === | === 2: Demostración pública en el museo científico "Universum" === |
* Duración: 1m | * Duración: 1m |
* Responsable: IIMAS, LIPN | * Responsable: IIMAS, LIPN |
| |
===== Perspectivas ===== | ===== Perspectivas ===== |
Desde el punto de vista de la robótica, este proyecto permitiría estudiar los vínculos entre la base de conocimientos de Golem<ref>Luis A. Pineda, Lisset Salinas, Ivan V. Meza, Caleb Rascon and Gibran Fuentes. SitLog: A Programming Language for Service Robot Tasks. Int J Adv Robot Syst, 2013</ref> en Prolog y las extensiones dinámicas posibles hacia la web semántica y el formato RDF. La idea que ante situaciones y tareas imprevistas el robot pueda apoyarse en la web semántica podría dar lugar a nuevos métodos para estructurar los comportamientos dinámicos en los modelos cognitivos propios de la robótica de servicio. Además el proyecto permitiría también preparar el terreno para una implementación multilingüe a mediano plazo, en particular de la lectura de textos ambientales y la producción de relatos de experiencias espaciales en lengua francesa. | Desde el punto de vista de la robótica, este proyecto permitiría estudiar los vínculos entre la base de conocimientos de Golem[(Luis A. Pineda, Lisset Salinas, Ivan V. Meza, Caleb Rascon and Gibran Fuentes. SitLog: A Programming Language for Service Robot Tasks. Int J Adv Robot Syst, 2013)] en Prolog y las extensiones dinámicas posibles hacia la web semántica y el formato RDF. La idea que ante situaciones y tareas imprevistas el robot pueda apoyarse en la web semántica podría dar lugar a nuevos métodos para estructurar los comportamientos dinámicos en los modelos cognitivos propios de la robótica de servicio. Además el proyecto permitiría también preparar el terreno para una implementación multilingüe a mediano plazo, en particular de la lectura de textos ambientales y la producción de relatos de experiencias espaciales en lengua francesa. |
| |
El multilingüismo enriquecería igualmente al sistema FRED<ref name="fred"></ref>, herramienta utilizada en la extracción de conocimientos para la web semántica. En la actualidad FRED ha sido probado sólo en lengua inglesa. Si bien el objetivo de este proyecto es el tratamiento y generación de textos en inglés, el financiamiento de la AUF nos permitiría reforzar la perspectiva de una producción en español y francés en el mediano plazo. Esto aunado a que el hecho de embarcar FRED en un dispositivo sin conectividad a internet podría dar lugar a una nueva familia de aplicaciones embarcadas que se apoyen en la web semántica. | El multilingüismo enriquecería igualmente al sistema FRED[(fred)], herramienta utilizada en la extracción de conocimientos para la web semántica. En la actualidad FRED ha sido probado sólo en lengua inglesa. Si bien el objetivo de este proyecto es el tratamiento y generación de textos en inglés, el financiamiento de la AUF nos permitiría reforzar la perspectiva de una producción en español y francés en el mediano plazo. Esto aunado a que el hecho de embarcar FRED en un dispositivo sin conectividad a internet podría dar lugar a una nueva familia de aplicaciones embarcadas que se apoyen en la web semántica. |
| |
Desde una perspectiva de generación de texto, este proyecto permitiría a su vez la implementación de una arquitectura de generación de textos a partir de datos en RDF. Como bien apuntan (Rector et.al. 2004) <ref>A. Rector, N. Drummond, M. Horridge, J. Rogers, H. Knublauch, R. Stevens, H. Wang, and C. Wroe. Owl pizzas: Practical experience of teaching owl-dl: Common errors & common patterns. Engineering Knowledge | Desde una perspectiva de generación de texto, este proyecto permitiría a su vez la implementación de una arquitectura de generación de textos a partir de datos en RDF. Como bien apuntan (Rector et.al. 2004) [(A. Rector, N. Drummond, M. Horridge, J. Rogers, H. Knublauch, R. Stevens, H. Wang, and C. Wroe. Owl pizzas: Practical experience of teaching owl-dl: Common errors & common patterns. Engineering Knowledge |
in the Age of the Semantic Web, pages 63–81, 2004.</ref>, los estándares establecidos por la comunidad de la web semántica (RDF, OWL) son de muy difícil comprensión y manipulación para los seres humanos. Con el desarrollo de la web semántica y el auge de los datos vinculados (//linked data//), la proliferación de bases de conocimiento y, más generalmente, de datos masivos hay una nueva necesidad de desarrollar tecnologías que permitan a los seres humanos un acceso simple y natural a los datos tratados y producidos por la maquinaria de la web de datos. Los sistemas aquí propuestos intentan transformar datos en texto y representan un medio natural, intuitivo y coherente de transormación de datos. Más generalmente, estos sistemas facilitan el acceso para usuarios no expertos a datos vinculados o bases de conocimiento y a su vez permiten guiar al usuario en la formulación de consultas hacia estas bases. En realidad, la generación de lenguaje natural es percibida cada vez más como una ventaja competitiva (//game changing//) por la cual las nuevas compañías emergentes buscan reformular el acceso masivo a la abuntantísima cantidad de información propia del mundo contemporáneo. | in the Age of the Semantic Web, pages 63–81, 2004.)], los estándares establecidos por la comunidad de la web semántica (RDF, OWL) son de muy difícil comprensión y manipulación para los seres humanos. Con el desarrollo de la web semántica y el auge de los datos vinculados (//linked data//), la proliferación de bases de conocimiento y, más generalmente, de datos masivos hay una nueva necesidad de desarrollar tecnologías que permitan a los seres humanos un acceso simple y natural a los datos tratados y producidos por la maquinaria de la web de datos. Los sistemas aquí propuestos intentan transformar datos en texto y representan un medio natural, intuitivo y coherente de transormación de datos. Más generalmente, estos sistemas facilitan el acceso para usuarios no expertos a datos vinculados o bases de conocimiento y a su vez permiten guiar al usuario en la formulación de consultas hacia estas bases. En realidad, la generación de lenguaje natural es percibida cada vez más como una ventaja competitiva (//game changing//) por la cual las nuevas compañías emergentes buscan reformular el acceso masivo a la abuntantísima cantidad de información propia del mundo contemporáneo. |
| |
===== Referencias ===== | ===== Referencias ===== |
<references/> | ~~REFNOTES~~ |
===== Enlaces ===== | ===== Enlaces ===== |
- [[http://63.84.220.100/csdl/proceedings/crv/2009/3651/00/3651a093.pdf|Towards navigation summaries]] | - [[http://63.84.220.100/csdl/proceedings/crv/2009/3651/00/3651a093.pdf|Towards navigation summaries]] |
- [[http://books.google.com.mx/books/about/Text_generation.html?id=Ex6xZlxvUywC&redir_esc=y|**Text Generation** by Kathleen McKeown]] | - [[http://books.google.com.mx/books/about/Text_generation.html?id=Ex6xZlxvUywC&redir_esc=y|**Text Generation** by Kathleen McKeown]] |
- [[http://wit.istc.cnr.it/stlab-tools/fred|Demo de FRED]] | - [[http://wit.istc.cnr.it/stlab-tools/fred|Demo de FRED]] |
- [[Pistas|para una colaboración posible entre el IIMAS y el LIPN]] | - [[equipes:rcln:ancien_wiki:projets:colaboracion_iimas_lipn]] |
- [[Golfred.G:|plan de trabajo 2015]] | - [[equipes:rcln:ancien_wiki:projets:golfred:plan_trabajo_2015]] |
- [[https://trello.com/b/nImaPxh4/golfred|Golfred.trello]] | - [[https://trello.com/b/nImaPxh4/golfred|Golfred.trello]] |
- [[https://github.com/rcln/Golfred|Golfred Github]] | - [[https://github.com/rcln/Golfred|Golfred Github]] |