Investigaciones en análisis sintáctico para el español

 

 

Sofía N. Galicia Haro y Alexander Gelbukh

 

 

Instituto Politécnico Nacional

México Ÿ 2007

 

Baja el libro completo en PDF

 

PRIMERA EDICIÓN: 2007

 

Todos los derechos reservados. Queda prohibida la reproducción total o parcia, por cualquier medio, sin el permiso expreso del autor.

 

All rights reserved. No part of this publication may be reproduced, stored in a retrieval system or transmitted, in any form or by any means, electronic, mechanical, recording, photocopying, or otherwise, without the prior permission of the publisher.

 

Publicaión realizada con el apoyo de CONACyT,
proyectos R420219-A y 
50206.

 

D.R. © 2007 INSTITUTO POLITÉCNICO NACIONAL

Dirección de Publicaciones

Tresguerras 27, 06040, DF

 

ISBN 970-36-0265-7

 

Impreso en México / Printed in Mexico


Serie Ciencia de la Computación

La escalada de la comunicación escrita, iniciada en el Renacimiento con la invención de la imprenta y elevada a niveles inimaginables hasta nuestros días, ha obligado al ser humano a alfabetizarse en un nuevo orden relacionado con las formas específicas de los medios, además de la escritura. Uno de estos medios es la computadora, objeto del mundo moderno que multiplica los espacios de acción y conocimiento del ser humano, donde las utopías adquieren realidad y el nuevo alfabeto cotidiano se adentra en un presente marcado por el ente computacional.

Sin embargo, y aún cuando el ente computacional forma parte de nuestra vida cotidiana, el texto impreso no ha sido desplazado por el texto electrónico; por el contrario, ambos se han convertido en elementos simbióticos que conforman una herramienta fundamental para acelerar el paso hacia una sociedad y una economía avanzadas y reestructuradas en torno a la ciencia, la tecnología y la difusión y promoción del conocimiento. Sólo a través de esta comunicación de conocimientos se puede crear una cultura científica, fundada en la búsqueda permanente de la verdad, la crítica informada y el proceder sistemático, riguroso e inteligente del quehacer humano.

En este contexto, la Colección de Ciencia de la Computación, editada por el Centro de Investigación en Computación (CIC) del Instituto Politécnico Nacional, con la colaboración de la Universidad Nacional Autónoma de México y el Fondo de Cultura Económica, presenta los trabajos de destacados especialistas mexicanos y extranjeros —tanto en su labor docente, como de investigación— en temas de cómputo docente, modelado y simulación de sistemas, análisis numérico, sistemas de información, ingeniería de software, geoprocesamiento, sistemas digitales, electrónica, control automático, reconocimiento de patrones y procesamiento de imágenes, tecnología de lenguaje natural e inteligencia artificial.

De esta forma, la obra editorial del CIC —que incluye las revistas Computación y Sistemas y Research in Computing Science, informes técnicos, memorias de eventos académicos, catálogos de soluciones y esta colección de libros, entre otros— reafirma el compromiso de asegurar altos estándares académicos y de productividad científica, vinculación y orientación al trabajo, así como desarrollo de habilidades y destrezas en la formación de recursos humanos.

Esta colección está dirigida a estudiosos del campo de la computación y tiene como propósito que se actualicen y refuercen su información en esta área tan dinámica del conocimiento; también se pretende que sea una herramienta de trabajo y consulta en las investigaciones y labores de enseñanza. Así, se consolida una de las finalidades fundamentales de la comunidad científica: la difusión y promoción de la ciencia.

Consideramos que cada uno de los libros de esta colección original y con publicaciones de gran calidad, deberán estar presentes en la biblioteca de todos los profesionales en computación —y áreas afines— que crean que el estudio y la actualización son esenciales para impulsar el desarrollo personal y el de nuestro país.


Prólogo

El español, con unos 400 millones de hablantes nativos y siendo lengua oficial de 20 países, es la segunda lengua más importante del mundo. Durante siglos la Real Academia Española (RAE) se ha dedicado a su estudio e investigación lingüística y a la elaboración de normas, dando buen ejemplo a otras lenguas.

Sin embargo, en cuanto a la investigación y creación de recursos lingüísticos para su tratamiento computacional, el español se encuentra en un estado relativamente pobre en comparación con otras lenguas importantes como el inglés, japonés o chino. Es primordial, tanto para la comunidad hispanohablante como para toda la humanidad, intensificar y acelerar el estudio computacional del español, ya que así contaremos con una gran variedad de herramientas que permitirán su desarrollo harmónico y su uso eficiente y de pleno valor en la educación, la ciencia y la cultura, es decir, en esta nueva era de la sociedad de la información.

Para este fin están trabajando cientos de investigadores en España: en Alicante, Barcelona, Madrid, San Sebastián, Jaén y muchos otros lugares del país donde se hace investigación en torno a la tecnología del lenguaje humano (también denominada ingeniería lingüística o lingüística computacional). Pero es especialmente grato observar el nacimiento, desarrollo y fortalecimiento de la incipiente comunidad científica de nuestra área en América Latina, representada primordialmente por los jóvenes y muy activos grupos mejicanos, nuestros queridos amigos y colegas. En particular, debo mencionar que los autores del libro que hoy presento al lector son fundadores del primer grupo de lingüística computacional en América hispanohablante: la primera doctora en esta ciencia graduada en Méjico y su maestro. Es este grupo el que ha fundado y organiza anualmente el famoso congreso internacional CICLing, gracias al cual —repitiendo las palabras del científico alemán Roland Hausser— Méjico ha aparecido en el mapa del mundo de la lingüística computacional.

El libro Investigaciones en análisis sintáctico para el español nos presenta una visión balanceada de uno de los fenómenos más importantes en el análisis de lenguaje —la sintaxis—. Mientras la mayoría de las fuentes hoy en día enfatiza los métodos estadísticos independientes de lenguaje, el presente libro retoma un enfoque más clásico, analizando los fenómenos específicos para el español. Más aún, se basa en la corriente que ha carecido de la atención de los investigadores durante medio siglo pero ahora adquiere cada vez más importancia: las gramáticas de dependencia, siendo una de las pocas fuentes que presenta el análisis del español en este importantísimo marco de trabajo lingüístico.

El libro muestra los resultados originales de la investigación de los autores. Sin embargo, contiene todo lo necesario para que un no especialista se ubique bien en el tema y entienda con calma el problema y la solución. El libro está escrito en un lenguaje sencillo y comprensible, cuenta con una introducción sólida, un glosario de términos e incluso con un pequeño vocabulario de términos en inglés, el cual simplificará al lector principiante su transición a la literatura científica en inglés, mientras que al lector experimentado le ayudará a entender con precisión el uso de los términos en el texto. El índice analítico agrega aún más utilidad al libro.

El libro es recomendado tanto para los expertos en el procesamiento de lenguaje natural y en lingüística como para los estudiantes y jóvenes investigadores que desean aportar con su talento y entusiasmo al desarrollo y florecimiento de nuestro querido español.

Dr. Manuel Palomar

Director del Grupo de investigación en Procesamiento del Lenguaje y Sistemas de Información de la Universidad de Alicante, España

Presidente de la Sociedad Española
para el Procesamiento de Lenguaje Natural


Índice general


 

Prefacio   1

Capítulo 1 Introducción   3

Capítulo 2 Formalismos gramaticales  23

Capítulo 3 Las valencias sintácticas en el análisis del español  111

Capítulo 4 Descripción sintáctica en el análisis automático   139

Capítulo 5 Compilación de patrones de rección avanzados  193

Capítulo 6 Otras fuentes de conocimiento para el análisis sintáctico   247

Glosario   295

Vocabulario bilingüe de términos (inglés — español) 299

Índice analítico   303

Referencias  305

Apéndice: conjunto de prueba   329

 

Índice detallado

 

 

Prefacio   1

Capítulo 1 Introducción   3

1.1    Lenguaje natural y lingüística teórica  3

1.2    Procesamiento automático de textos  6

1.3    Procesamiento de textos basado en conocimiento lingüístico  7

1.3.1    Sintaxis  10

1.3.1.1 Enfoque de constituyentes  11

1.3.1.2 Enfoque de dependencias  13

1.4    Peculiaridades sintácticas del español 16

1.5    Ambigüedades en el análisis sintáctico  17

1.6    Estructura del libro  19

Capítulo 2 Formalismos gramaticales  23

2.1    La sintaxis  23

2.2    Gramáticas generativas  27

2.2.1    Primera Etapa  27

2.2.1.1 Modelo Transformacional 28

2.2.1.2 Teoría estándar  31

2.2.1.3 Teoría estándar ampliada  32

2.2.1.4 Teoría de la rección y Ligamento (GB)  35

2.2.1.5 Gramática de estructura de frase generalizada (GPSG)  38

2.2.1.6 Gramática léxica funcional (LFG)  41

2.2.1.7 Gramática de estructura de frase dirigida por el Núcleo-H (HSPG)  45

2.2.2    Restricciones  48

2.2.2.1 Gramática categorial (CG)  49

2.2.2.2 Gramática de restricciones (GR)  51

2.2.2.3 Gramática de Adjunción de árboles (TAG)  52

2.3    Gramáticas de dependencias  54

2.3.1    Gramática de dependencias y unificación  55

2.3.2    Teoría Significado Û Texto  57

2.4    Descripción sintáctica  60

2.4.1    Subcategorización en gramáticas generativas  64

2.4.1.1 Gramática de rección y ligamento  64

2.4.1.2 GPSG   70

2.4.1.3 Subcategorización en LFG   72

2.4.1.4 Subcategorización en CG   78

2.4.1.5 Subcategorización en HPSG   84

2.4.2    Valencias sintácticas en gramáticas de dependencias  90

2.4.2.1 Valencias Sintácticas en DUG   90

2.4.2.2 Valencias Sintácticas en la MTT  95

2.4.3    Convergencia de los dos enfoques  99

2.4.4    Diccionarios para el análisis sintáctico  103

2.4.5    Revisión de enfoques para la descripción de valencias sintácticas  109

Capítulo 3 Las valencias sintácticas en el análisis del español  111

3.1    Peculiaridades sintácticas del español 111

3.2    Diversidad numérica de valencias  113

3.3    Patrones de rección  116

3.3.1    Verbos  116

3.3.1.1 Verbos sin valencias  117

3.3.1.2 Verbos con una valencia  117

3.3.1.3 Verbos con dos valencias  118

3.3.1.4 Verbos con tres valencias. 119

3.3.1.5 Verbos con cuatro valencias  120

3.3.1.6 Verbos con cinco valencias  122

3.3.2    Adjetivos y sustantivos  123

3.4    Animidad  127

3.4.1    Dependencia del objeto directo en la animidad  127

3.4.2    Uso de la animidad como marca semántica  129

3.5    Repetición limitada de valencias  131

3.6    El complemento beneficiario  134

Capítulo 4 Descripción sintáctica en el análisis automático   139

4.1    Métodos tradicionales para caracterizar formalmente las valencias  139

4.1.1    Subcategorización  139

4.1.2    Patrones de rección  141

4.1.2.1 Primera sección  141

4.1.2.2 Segunda sección  141

4.1.2.3 Tercera sección  142

4.1.2.4 Cuarta sección  143

4.2    Una gramática de contituyentes para el español 146

4.2.1    Marcas morfológicas  148

4.2.2    Desarrollo y ampliación de cobertura de la gramática  153

4.2.3    Mejora en la gramática  155

4.2.4    Verificación preliminar de la gramática  157

4.2.5    Reglas gramáticales  160

4.2.5.1 Signos convencionales de la gramática  163

4.2.5.2 Reglas de la gramática  165

4.2.6    Algoritmo de transformación de árboles de constituyentes en árboles de dependencias  174

4.2.6.1 Condiciones de transformación  174

4.2.6.2 Algoritmo básico de transformación  176

4.3    Analizador basado en constituyentes y unificación  180

4.4    Los patrones de rección avanzados, un método alternativo  185

Capítulo 5 Compilación de patrones de rección avanzados  193

5.1    Métodos lexicográficos: tradicionales y automatizados  194

5.1.1    Métodos tradicionales de compilación de diccionarios  195

5.2    Información sintáctica para los PRA   200

5.2.1    Enlace de frases preposicionales  202

5.2.2    Obtención de marcos de subcategorización  205

5.2.3    Bases del método estadístico  207

5.2.4    Deducción del modelo  210

5.2.5    Limitaciones del modelo  218

5.2.6    Afinidades con otros métodos  219

5.2.7    Proceso iterativo  220

5.3    Aplicación del método a textos reales  223

5.3.1    Proceso general 226

5.3.2    Pesos de las combinaciones y su uso  229

5.3.3    Verbos con combinaciones compiladas automáticamente  230

5.3.3.1 Tipos de elementos novedosos  231

5.3.3.2 Ruido de información. 233

5.4    Comparación de resultados de la obtención de estructuras de las valencias en forma tradicional y en forma automatizada  234

5.5    Algunas conclusiones a favor de la automatización  238

5.6    Analizador sintáctico con estadísticas de rección  240

5.6.1    Resultados de la aplicación de los pesos de combinaciones en el analizador básico  244

Capítulo 6 Otras fuentes de conocimiento para el análisis sintáctico   247

6.1    Combinación de métodos  247

6.1.1    Modelos empleados  249

6.1.2    Combinación de métodos  251

6.2    Estructura general del analizador 252

6.2.1    Patrones de rección  254

6.2.2    Reglas ponderadas  254

6.2.3    Proximidad semántica  255

6.2.4    Módulo de votación  256

6.3    Reglas ponderadas  257

6.3.1    Evaluación cuantitativa  257

6.4    Proximidad semántica  259

6.4.1    Red Semántica  259

6.4.2    Desambiguación sintáctica  264

6.4.3    Evaluación cuantitativa  266

6.5    Análisis sintáctico basado en diferentes fuentes de conocimiento  267

6.5.1    Ejemplos de evaluación cuantitativa  268

6.5.2    Características de votación del analizador sintáctico  272

6.6    Colocaciones  275

6.6.1    Estructura del sistema de colocaciones  277

6.6.1.1 Principales tipos de relaciones  278

6.6.2    Inferencia  282

6.7    Pares coordinados estables  284

6.7.1 Pares coordinados  284

6.7.2 Parámetros para la clasificación de los pares coordinados  286

6.7.3 Algunas estadísticas  291

6.7.4 Uso de los PCE en Análisis sintáctico  291

6.7.5 Descripción formal de algunos pares coordinados estables  292

Glosario   295

Vocabulario bilingüe de términos (inglés — español) 299

Índice analítico   303

Referencias  305

Apéndice: conjunto de prueba   329


 


 


Prefacio        ִ

Este volumen reúne trabajos desarrollados en investigaciones realizadas en el área de la Lingüística Computacional, encaminadas a resolver el problema del análisis sintáctico automático, mediante computadora. En estas investigaciones se hace énfasis en el objetivo de analizar el lenguaje español, y los ejemplos que se presentan corresponden a textos de las variantes mexicana y española.

El problema del análisis sintáctico y la desambiguación de las estructuras sintácticas generadas es un elemento importante en el análisis lingüístico de textos por computadora. Sin embargo, este problema está lejos de resolverse completa y satisfactoriamente cuando se trata de analizar textos sin restricciones en cualquier lenguaje natural. El lector encontrará en estas páginas, además de la aplicación de formalismos tradicionales, una aproximación que reune diferentes fuentes de conocimiento del lenguaje para obtener las variantes que tienen más posibilidades de ser correctas, es decir, para realizar la desambiguación sintáctica.

El libro será útil tanto para los especialistas y estudiantes que se dedican a la Lingüística Computacional y áreas afines, como para los que apenas están empezando a familiarizarse con esta área. Otro grupo muy importante al cual está dirigido este libro son los lingüistas, que encontrarán en él ejemplos útiles tanto del uso de las técnicas computacionales en sus labores como de las aplicaciones de su investigación.

Expresamos nuestra gratitud al Dr. Igor A. Bolshakov, nuestro querido maestro, colega y coautor de un capítulo de este libro, por las numerosas ideas que aportó a nuestro trabajo. Agradecemos al Dr. Arturo Guzmán Martínez por sus muy útiles comentarios y críticas. El libro hace uso extensivo de nuestros trabajos previos publicados en varias revistas y congresos, con actualizaciones y adecuaciones necesarias según comentarios que recibimos de los lectores, a quienes expresamos nuestro más profundo reconocimiento. El trabajo que implicó este libro fue realizado con el apoyo parcial del Gobierno de México (CONACyT R420219-A y 50206, SNI) y del Instituto Politécnico Nacional, México (SIP, COFAA).

Sofía N. Galicia Haro y Alexander Gelbukh

Septiembre 2006, México, D.F.


 

 

 

 


 

 

Capítulo 1   Introducción

Este capítulo introduce al lector al tema del libro. Se le presenta la ciencia que estudia el lenguaje que usamos en nuestra vida cotidiana —el lenguaje natural, tal como el español o el inglés. Luego se le explica cómo las computadoras pueden procesar nuestro lenguaje y qué problemas enfrentan en esta tarea. Finalmente se le explica la estructura del libro.

1.1          Lenguaje natural y lingüística teórica


Los seres humanos tenemos la posibilidad de acumular el conocimiento comunicándolo de una persona a otra, de una generación a otra, de las épocas antiguas a las épocas modernas, y a las épocas futuras. Esta comunicación se efectúa en la forma de lenguaje natural[1], es decir, en inglés, en francés, en alemán, etc., siendo el español uno de los lenguajes más hablados del mundo. No sólo nos comunicamos con él, ya sea en forma oral o escrita, sino que almacenamos nuestro tesoro más valioso —el conocimiento de la raza humana— en la forma de lenguaje natural. En esta época de la información, el manejo eficiente de este conocimiento es vital para la humanidad.

Desde las épocas más antiguas existen las ciencias que estudian el lenguaje humano. Éstas se pueden clasificar en tres grandes ramas. Unas estudian el lenguaje en comparación con otros lenguajes, observando las diferencias y semejanzas entre ellos. Por ejemplo, ¿qué diferencias hay entre el español y el portugués? ¿Por qué el italiano se parece más al español que al francés? Este grupo de ciencias incluye a las que estudian las lenguas nativas antiguas, tales como yaqui o náhuatl, sus diferentes dialectos, las costumbres y la cultura de la gente que las habla. También estudian diferentes dialectos del mismo lenguaje, por ejemplo: ¿cuáles diferencias hay entre el español de México y el de Argentina?

Otras ciencias estudian el lenguaje en comparación con su propio estado en otras épocas. Por ejemplo, ¿cómo fue la transición del latín al español? ¿En qué siglo el sonido x (sh) en español se transformó a j, el proceso que dejó su relicto en el modo en que escribimos el nombre de nuestra patria, México? ¿Cómo se va a transformar el español en los próximos siglos? Finalmente, otras ciencias lingüísticas se dedican al estudio del propio lenguaje, de sus prefijos, raíces, sufijos, oraciones, y el sentido de las palabras, oraciones y párrafos. Cuáles palabras se escriben con acento y cuáles sin acento. Cuáles oraciones están bien formadas y cuáles no están escritas en buen español. Cuál estilo es apropiado para un cuento para niños, cuál para un artículo de periódico y cuál para un informe técnico.

Por otra parte, hace unos 50 años se construyó una máquina destinada a ayudarnos —e imitarnos— en lo más humano que tenemos —en pensar—: la computadora. Y como pensar y hablar son procesos tan íntimamente relacionados, surgió la tarea de modelar el funcionamiento del lenguaje. No sólo describir el lenguaje, como lo hacen las ciencias humanísticas, sino modelarlo, construirlo —construir un modelo de lenguaje, un autómata que hable y entienda.

La nueva ciencia técnica que combina el conocimiento sobre la computación y el conocimiento matemáticamente preciso sobre la estructura del lenguaje humano, se denomina Lingüística Computacional. Esta ciencia se encarga de todos los aspectos de la interacción de las computadoras y el lenguaje humano. La tarea final de esta ciencia —como la piedra filosofal de la alquimia— es la construcción de una máquina que hable y entienda como nosotros lo hacemos.

Los resultados de la lingüística computacional son programas de software. La diferencia entre las tareas y los métodos de la lingüística humanística y de la lingüística computacional se puede comparar con la diferencia existente entre el trabajo de un ornitólogo y un constructor de aviones: mientras el primero estudia el color de las plumas de diferentes pájaros y sus distintas áreas de vida, la tarea del segundo es construir —con los métodos matemáticos y de ingeniería— un pájaro de metal que vuele y ayude a volar al hombre.

Falta mucha investigación todavía para lograr construir una máquina que hable como las personas. Para esta tarea, las reglas que describen el lenguaje son muy precisas y numerosas, previendo y describiendo minúsculamente para la máquina los fenómenos que parecen “obvios” para un humano. Inventando y desarrollando los formalismos en que esta descripción se pueda hacer explícita. Desarrollando los algoritmos y las estrategias del manejo, dentro de la computadora, de esta cantidad enorme de información sobre el lenguaje.

Pero para ser útil, una máquina no tiene que entender todo lo que lee. Puede entender algo. Si sólo entiende sobre qué tema habla un texto (aunque no entienda qué quiere decir), nos facilita la búsqueda de los documentos en Internet sobre los temas que nos interesan. Por ejemplo: ¿Cuáles artículos discuten los problemas de democracia? O bien, si la máquina entiende algunos comandos en voz alta, le podemos dar estos comandos: “abre el archivo informe.doc y envíalo a mi jefe”. Incluso podemos dar estos comandos por teléfono, y escuchar la respuesta de la máquina. O bien, si la máquina entiende algunos hechos que se mencionan en el documento, puede —leyendo millones de archivos automáticamente— recopilarlos en una base de datos. Finalmente, podría traducir un archivo de un lenguaje a otro.

En estos últimos 50 años —la época de las computadoras— la ciencia de la lingüística computacional ha visto un gran avance. Los países más desarrollados del mundo invierten millones y millones de dólares en el proceso de las herramientas y recursos para el procesamiento automático de sus lenguajes, en los primeros lugares están el inglés, el japonés y el alemán, entre otros. Desgraciadamente, en comparación, muy poco trabajo se dedica al español.

El primer paso para el estudio profundo del texto es su análisis sintáctico, la determinación de la estructura de cada oración. Es muy difícil realizar esta tarea con una alta calidad, y al respecto hay poco avance en el mundo. El problema más difícil que se enfrenta en el análisis sintáctico es la ambigüedad: la computadora encuentra más de una interpretación de cada oración y tiene que elegir una, la correcta. Muchos científicos consideran que la resolución de la ambigüedad es la tarea más importante en el análisis de lenguaje.

En este volumen presentamos las investigaciones que para elegir las mejores hipótesis, es decir, para resolver la ambigüedad en el análisis sintáctico mediante computadora, se han explorado.

1.2          Procesamiento automático de textos

Actualmente, el avance tecnológico en los medios de comunicación impresos y electrónicos nos permite obtener grandes volúmenes de información en forma escrita. La mayoría de esta información se presenta en forma de textos en lenguajes naturales. Toda esa información contenida en los textos es muy importante ya que permite analizar, comparar y entender el entorno en el que vive el ser humano.

Sin embargo, se presentan dificultades por la imposibilidad humana de manejar esa enorme cantidad de textos. Entre las herramientas que ayudan en las tareas diarias, la computadora es, hoy en día, una herramienta indispensable para el procesamiento de grandes volúmenes de datos. Pero todavía no se logra que al capturar una colección de textos, una máquina los comprenda suficientemente bien, por ejemplo para que pueda aconsejar qué hacer en determinado momento basándose en toda la información proporcionada, o para que pueda responder a preguntas acerca de los temas contenidos en esa información pero no explícitamente descritos, o para que pueda elaborar un resumen de la información.

Para lograr esta enorme tarea de procesamiento de lenguaje natural por computadora, analizando oración por oración para obtener el sentido de los textos, es necesario conocer las reglas y los principios bajo los cuales funciona el lenguaje, a fin de reproducirlos y adecuarlos a la computadora, incluyendo posteriormente el procesamiento de lenguaje natural en el proceso general del conocimiento y el razonamiento (Sidorov, 2001, 2005).

El estudio del lenguaje, está relacionado con diversas disciplinas. Entre ellas, la lingüística general es el estudio teórico que se ocupa de los métodos de investigación y de las cuestiones comunes a las diversas lenguas. Esta disciplina, a su vez, comprende una multitud de aspectos: temporales, metodológicos, sociales, culturales, de aprendizaje, etc. Los aspectos metodológicos y de aplicación brindan los principios y las reglas necesarios en el procesamiento de textos.

Los principios y las reglas de la lingüística general, aunados a los métodos de la computación, forman la Lingüística Computacional. Dentro de esta área se han desarrollado y discutido muchos formalismos adecuados para la computadora, a fin de reproducir el funcionamiento del lenguaje con el objetivo de extraer sentido a partir de textos y viceversa, transformando los conceptos de sentidos específicos a los textos correctos correspondientes.

El proceso que se realiza con las herramientas proporcionadas por la Lingüística Computacional para realizar las tareas necesarias para pasar del texto a la estructura conceptual y de ésta a los textos, lo denominamos: procesamiento de textos basado en conocimiento lingüístico.

1.3          Procesamiento de textos basado en conocimiento lingüístico

El proceso basado en conocimiento lingüístico considera análisis y síntesis de textos, es decir, comprensión y generación de oraciones en lenguaje natural. Tanto en la generación como en la comprensión se realizan diferentes transformaciones o cambios de una estructura a otra para llegar al objetivo correspondiente, obtener los conceptos del texto o crear textos, respectivamente.

La generación de texto dentro de este ámbito empieza con la conceptuación del mensaje que se transmitirá y con la definición del nivel de generalización o de detalle en que se realizará. A continuación se sigue con la planeación de las estructuras. Los problemas específicos para construir estas estructuras están relacionados con las elecciones para representar un sentido específico, y con las elecciones de las estructuras particulares que se enlazan a las palabras. Existen otros criterios que intervienen en la construcción de la estructura, que no se consideran en el nivel de oración sino en el nivel del discurso completo, como la coherencia, expuesta mediante enlaces entre oraciones.

La comprensión en el proceso basado en conocimiento lingüístico, más compleja que la generación, parte de la representación de la información textual, es decir, de la cadena de palabras, y la traduce a diversas estructuras lingüísticas en varias etapas.

Las transformaciones que se requieren en el análisis y la síntesis son tan complejas que se dividen, tanto en la teoría como en la aplicación, en etapas generales. Para que la computadora realice estas etapas se requieren métodos adecuados para la descripción y construcción de las estructuras correspondientes, es decir, se requieren formalismos lingüísticos de representación y computacionales.

En la lingüística general se considera que tres niveles generales componen el proceso lingüístico: la morfología, la sintaxis y la semántica. En el procesamiento lingüístico de textos, entre estos niveles se elaboran descripciones y transformaciones computacionales de estructuras al menos en dos etapas, en la primera a una estructura sintáctica y en la segunda a la estructura conceptual. Estos niveles no están totalmente delimitados, diversos investigadores difieren un poco en los puntos de vista para esta delimitación, pero las diferencias no son cruciales.

Cada uno de los niveles, tanto en la generación como en la comprensión, tiene sus propias reglas y requiere colecciones de datos (diccionarios) apropiadas, aunque ciertas tareas pueden compartir recursos en el análisis y en la síntesis de textos. De hecho, en la construcción de recursos para el procesamiento lingüístico de textos un concepto importante es compartir recursos, dados los grandes esfuerzos que normalmente se requieren para su compilación.

Nuestra investigación se centra en el análisis y en el nivel sintáctico. Por lo que los niveles morfológico y semántico se consideran como los niveles adyacentes, cada uno apoyado en sus propias características. La sintaxis tiene estrechas relaciones con ambos niveles. En el nivel morfológico, las características que están relacionadas con el nivel sintáctico son las categorías gramaticales (las partes del habla y sus subclases), y algunas otras características morfológicas.

Las partes del habla (part of speech en inglés: POS) son: sustantivo, verbo, artículo, etc. En el análisis se realiza un marcaje de POS cuando se asignan estas categorías gramaticales a cada palabra dada, es decir, cuando se indica la función de cada palabra en el contexto específico de la oración. Este marcaje se hace considerando características morfológicas y sintácticas del lenguaje.

Las características morfológicas relacionadas con la sintaxis son las combinaciones que pueden caracterizar a los paradigmas. Los paradigmas aquí se refieren a los grupos de palabras relacionadas por su semejanza de significantes (la mínima forma significativa en la palabra) o por alguna relación entre sus significados (idea contenida en el significante). Entre las características morfológicas que caracterizan paradigmas están las formas de conjugación de los verbos (amo, amas, ama, aman, etc.), las variantes que expresan género y número de sustantivos, etc. Por ejemplo, la palabra comen, donde la inflexión en describe tiempo presente, modo indicativo, tercera persona del plural. Estas características se utilizan para relacionar palabras, frases u oraciones entre sí, es decir, para la coordinación; por ejemplo, del verbo con el sujeto (ellos comen), del sustantivo con el adjetivo (casa roja), etc.

Otra característica morfológica con repercusiones sintácticas y semánticas es la relacionada a las formas homónimas. Existen diferentes palabras morfológicas, como banco, bancos, que son variantes de un mismo lexema (la parte constante de una palabra variable que expresa la idea principal contenida) y existen formas homónimas de un lexema, con diferente sentido, que conforman un vocablo común. Estas formas homónimas se numeran para describir sus sentidos. De esta forma, por ejemplo, se tiene banco1 y banco2, mientras el primero se refiere al sentido relacionado a guardar algo (banco de ojos, banco comercial), el segundo se refiere al sentido de asiento para una sola persona.

Formas homónimas como: querer1: tener el deseo de obtener algo, y querer2: amar o estimar a alguien, se distinguen por sus construcciones sintácticas, como se verá más adelante.

1.3.1       Sintaxis

La tarea principal en este nivel es describir cómo las palabras de la oración se relacionan y cuál es la función que cada palabra realiza en esa oración, es decir, construir la estructura de la oración de un lenguaje.

Las normas o reglas para construir las oraciones se definen para los seres humanos en una forma prescriptiva, indicando las formas de las frases correctas y condenando las formas desviadas, es decir, indicando cuáles se prefieren en el lenguaje. En contraste, en el procesamiento lingüístico de textos, las reglas deben ser descriptivas, estableciendo métodos que definan las frases posibles e imposibles del lenguaje específico de que se trate.

Las frases posibles son secuencias gramaticales, es decir, que obedecen leyes gramaticales, sin conocimiento del mundo, y las no gramaticales deben postergarse a niveles que consideren la noción de contexto, en un sentido amplio, y el razonamiento. Establecer métodos que determinen únicamente las secuencias gramaticales en el procesamiento lingüístico de textos ha sido el objetivo de los formalismos gramaticales en la Lingüística Computacional. En ella se han considerado dos enfoques para describir formalmente la gramaticalidad de las oraciones: las dependencias y los constituyentes.

1.3.1.1 Enfoque de constituyentes

Los constituyentes y la suposición de la estructura de frase, sugerida por Leonard Bloomfield en 1933, es el enfoque enel que las oraciones se analizan mediante un proceso de segmentación y clasificación. Se segmenta la oración en sus partes constituyentes, se clasifican estas partes como categorías gramaticales, después se repite el proceso para cada parte dividiéndola en subconstituyentes, y así sucesivamente hasta que las partes sean las partes de la palabra indivisibles dentro de la gramática (morfemas).

La suposición de frase y la noción de constituyente, se aplican de la siguiente forma. La frase los niños pequeños estudian pocas horas se divide en el grupo nominal los niños pequeños más el grupo verbal estudian pocas horas, este último a su vez, se divide en el verbo estudian más el grupo nominal pocas horas y así sucesivamente.

En la perspectiva de constituyentes, la línea más importante de trabajo es la desarrollada por el eminente matemático y lingüista Noam Chomsky, desde los años cincuenta del siglo XX. Chomsky (1957) dice que lo que nosotros sabemos, cuando conocemos un lenguaje, es un conjunto de palabras y reglas con las cuáles generamos cadenas de esas palabras.

Bajo este enfoque, aunque existe un número finito de palabras en el lenguaje, es posible generar un número infinito de oraciones mediante esas reglas, que también se emplean para la comprensión del lenguaje. Como una subclase, muy importante, de las gramáticas formales, estas reglas definen gramáticas independientes del contexto (Context Free Grammars en inglés, CFG). Sin embargo, existen al menos dos cuestiones principales cuando se trata de la cobertura amplia de un lenguaje natural: el número de reglas y la definición concreta de ellas.

El número requerido de reglas para analizar las oraciones de un lenguaje natural no tiene límite predeterminado,  ya que debe haber tantas reglas como sean necesarias para expresar todas las variantes posibles de las secuencias de palabras que los hablantes nativos pueden realizar. En cuanto a la definición, se generan mucho más secuencias de palabras de las que realmente quieren producirse. Por ejemplo, una regla para definir grupos nominales en el español es: un artículo indefinido, seguido de un sustantivo y a continuación un grupo preposicional. Sin embargo, esta regla define tanto la plática sobre la libre empresa como *la solidaridad sobre la libre empresa[2], siendo ésta última una secuencia no gramatical.

En este enfoque, una información importante para el análisis sintáctico es la definida como subcategorización, referida a los complementos que una palabra rectora puede tener y la categoría gramatical de ellos. Los complementos, en la lingüística general, se definen como palabras, o grupos de elementos lingüísticos que funcionan como una unidad que completa el significado de uno o de varios componentes de la oración, e incluso de la oración entera. Esta información se ha agrupado en patrones que describen la composición de los complementos posibles para diferentes verbos, conocida como marcos de subcategorización.

Principalmente se considera que los verbos son las palabras del lenguaje que requieren estos marcos de subcategorización, los cuales pueden ser de diferentes tipos, simples como grupos nominales, o más complejos, como por ejemplo el verbo dar, que subcategoriza un grupo nominal y un grupo preposicional, en ese orden, Da un libro a María. También se considera que la descripción de los complementos puede realizarse en términos sintácticos o en términos semánticos.

En términos sintácticos, se describen por su estructura y partes del habla. Por ejemplo, la frase: en diez pesos, es un grupo preposicional compuesto de preposición, adjetivo numeral y sustantivo, y la frase: en una tienda, también es un grupo preposicional pero compuesto de una preposición, un artículo y un sustantivo. En este caso, tanto adjetivo numeral seguido de sustantivo como artículo seguido de sustantivo forman un grupo nominal, y el mismo marco: preposición seguida de grupo nominal, describe ambos complementos.

La descripción en términos semánticos, por no considerarse de alguna forma ligada a la descripción sintáctica en este enfoque, se ha complementado con los papeles temáticos. Estos papeles temáticos tienen su antecedente en los casos, que son relaciones semánticas abstractas entre los verbos y sus argumentos, establecida en la Gramática de Casos (Fillmore, 1977). Los papeles temáticos intentan explicar las diferencias para un verbo en las distintas estructuras, por ejemplo: Juan rompió la ventana con el martillo, El martillo rompió la ventana, La ventana se rompió. Con los papeles temáticos se establece que Juan, el martillo y la ventana, hacen el papel de agente, y el martillo en la primera frase es una herramienta.

Las combinaciones de los distintos complementos en la oración presentan otra complejidad. Por ejemplo, en la frase Compró el niño un libro en diez pesos en la tienda XX a un lado del metro Juárez a un vendedor alto de mal humor, existen seis grupos preposicionales (en la tienda, del metro Juárez, etc.) introducidos con solo tres preposiciones, a, en, de, y aparecen dos grupos nominales (el niño, un libro). Las posibles combinaciones no son aleatorias pero estos complementos o grupos lingüísticos pueden ir enlazados en diferentes combinaciones, unidos al verbo o a algunos sustantivos de los diferentes grupos de la oración, por ejemplo: Compró el niño, Compró un libro, Compró en diez pesos, Compró en la tienda XX, Compró a un vendedor alto, la tienda XX a un lado del metro Juárez.

Mientras para un hablante nativo es obvio cómo se relacionan los complementos, para una computadora son posibles todas las variantes: Compró a un lado, Compró del metro Juárez, Compró de mal humor, el niño en la tienda XX, etc.

1.3.1.2 Enfoque de dependencias

El primer intento real para construir una teoría que describiera las gramáticas de dependencias fue el trabajo de Lucien Tesnière en 1959. Las dependencias se establecen entre pares de palabras, donde una es principal o rectora y la otra está subordinada a (o dependiente de) la primera. Si cada palabra de la oración tiene una palabra propia rectora, la oración entera se ve como una estructura jerárquica de diferentes niveles, como un árbol de dependencias. La única palabra que no está subordinada a otra es la raíz del árbol.

Es importante notar que la motivación de muchas dependencias sintácticas es el sentido de las palabras. Por ejemplo en la frase Los niños pequeños estudian pocas horas, las palabras pequeños y pocas son modificadores de atributo de las palabras niños y horas respectivamente, y niños es el sujeto de estudiar. Un rasgo muy importante de las dependencias es que no son iguales: una sirve para modificar el significado de la otra, así la secuencia los niños pequeños denota ciertos niños, y estudian pocas horas denota una forma de estudiar.

En el enfoque de dependencias, la línea de trabajo más importante es la desarrollada por el investigador Igor Mel’čuk desde los años sesenta del siglo pasado, la Meaning Û Text Theory (MTT). Para Mel’čuk (1979), en la sintaxis se describen los medios lingüísticos por los cuales se expresan todos los participantes que están implicados en el sentido mismo de los lexemas.

Bajo esta perspectiva, la descripción de conocimiento lingüístico es primordial. La descripción de los medios lingüísticos con los que se expresan los “objetos” del lexema se insertan junto con él en un diccionario, de esta forma se conoce de antemano cómo se relaciona el lexema con los distintos grupos de palabras en la oración. Por ejemplo, para el lexema plática aparecerá que utiliza la preposición sobre para introducir el tema, que solidaridad utiliza la preposición con, y que el verbo dar emplea un sustantivo para expresar el objeto donado y para introducir el receptor se emplea la preposición a. Estas descripciones se denominan patrones de rección.

Una cuestión principal cuando se trata de la cobertura amplia de un lenguaje natural, empleando los patrones de rección, se refiere al establecimiento de todo este conocimiento lingüístico que no se basa en lógica y que, por lo tanto, conlleva el enorme trabajo manual de la descripción de la colección completa de todos los posibles objetos de las palabras específicas (verbos, sustantivos o adjetivos). Por ejemplo, establecer la manera en que el lexema comprar expresa los participantes en la acción de hacer que alguna cosa pase de ser propiedad de una persona o entidad a ser propiedad de otra persona o entidad a cambio de una cantidad de dinero.

Con la sola descripción sintáctica de los complementos no hay una manera de establecer para la computadora reglas que definan las preposiciones específicas de cada verbo, por ejemplo la preposición en para el verbo comprar y no un grupo preposicional introducido por la preposición sobre. Y aún cuando se especificara particularmente para el verbo comprar que un complemento se introduce con la preposición en, se tiene que diferenciar entre grupos preposicionales como en diez pesos que expresa la cantidad de dinero, y otros grupos preposicionales que expresan otros sentidos como en una tienda. Esta diferencia que implica un descriptor semántico está contemplada en la MTT.

En la MTT se relacionan los participantes semánticos con los complementos del verbo, es decir, la valencia semántica con la valencia sintáctica. Por ejemplo, la realización sintáctica en diez pesos se refiere a la cantidad de dinero por la cuál se compró algo si está relacionado con comprar o se trata de la cantidad en la cuál disminuye un precio si se trata de reducir, etc. En la MTT, la idea es establecer las valencias, es decir, los participantes referidos a la acción del verbo en cuestión, establecer quién realiza la acción, a quién está dirigida, qué se hace, etc. Por ejemplo, en la acción de beber, los participantes son quién bebe y qué bebe; en la acción comprar los participantes son: quién compra, qué compra, en cuanto lo compra, a quién se lo compra.

En este enfoque, también se considera necesario establecer la diferencia entre los complementos seleccionados semánticamente, y los que expresan las circunstancias en las que se da la acción, que se denominan circunstanciales. Los complementos circunstanciales están relacionados al contexto local de la oración pero no expresan participantes en la acción del verbo, añaden información no relacionada directamente al sentido del lexema. Por ejemplo, en la frase, compró contra su voluntad un traje nuevo, el grupo preposicional contra su voluntad expresa un modificador a la acción comprar, pero no es un participante de la acción del verbo.

1.4          Peculiaridades sintácticas del español

Existen características que dependen de cada lenguaje y que simplifican o vuelven más compleja la relación entre los grupos de palabras. Reconocer las combinaciones posibles de los verbos y sus complementos es menos complejo cuando en el lenguaje existen posiciones fijas de ocurrencia de ellos. Sin embargo esto varía, la estructura de la oración en diferentes lenguajes tiene diversos órdenes básicos y diferentes grados de libertad en el orden de palabras. Por ejemplo, el inglés y el español tienen un orden básico sujeto-verbo-complemento (SVC).

Esto no quiere decir que siempre se cumpla ese orden. Algunos lenguajes, como el inglés, tienen un orden más estricto, otros, como el español, tienen un grado de libertad mayor. Por ejemplo, la oración en español Juan vino a mi casa (SVC) se acepta sintácticamente en las siguientes variantes: A mi casa vino Juan (CVS), Vino Juan a mi casa (VSC), A mi casa Juan vino (CSV), Juan a mi casa vino (SCV), Vino a mi casa Juan (VCS), por lo que los participantes de las acciones pueden ocurrir en distintas posiciones respecto al verbo.

En español, al igual que en algunos otros lenguajes, el uso de las preposiciones es muy amplio. Este empleo origina una gran cantidad de combinaciones de grupos preposicionales, pero también sirve para diferenciar, en muchos casos, la introducción de los participantes de una acción. Por ejemplo, en la frase Compró el niño un libro en diez pesos, los hablantes nativos reconocen que se utiliza la preposición en para introducir la expresión del precio del artículo comprado.

En español, el uso de preposiciones permite introducir sustantivos animados en el papel sintáctico de objeto directo, distinguir entre significados de verbos, distinguir participantes. Realmente, la preposición a, entre otros usos, sirve para diferenciar el significado del complemento directo de algunos verbos, por ejemplo, querer algo (tener el deseo de obtener algo) y querer a alguien (amar o estimar a alguien). Si este conocimiento se omite en el nivel sintáctico entonces el análisis en el nivel semántico se vuelve más complejo. Esta información también es útil en la generación de lenguaje natural porque una vez establecido el sentido que se quiere transmitir existe la posibilidad de seleccionar la estructura precisa para él.

Otra peculiaridad del español es la repetición restringida de valencias. Por ejemplo en la frase: Arturo le dio la manzana a Víctor, dónde le se emplea para establecer a quién le dieron la manzana y el grupo preposicional a Víctor también representa al mismo participante. Otro ejemplo es: El disfraz de Arturo lo diseñó Víctor, donde tanto lo como el disfraz de Arturo corresponden al objeto directo de diseñar. Esta repetición se da en forma de pronombres y sustantivos. Las implicaciones léxicas y sintácticas en cuanto a que algunos verbos presentan estas estructuras, a que se deben relacionar las dos expresiones de valencias sintácticas con la misma valencia semántica, y a posibles diferencias semánticas, competen al análisis sintáctico.

1.5          Ambigüedades en el análisis sintáctico

La ambigüedad en el proceso lingüístico se presenta cuando pueden admitirse distintas interpretaciones a partir de la representación o cuando existe confusión al tener diversas estructuras y no tener los elementos necesarios para eliminar las incorrectas. Para desambiguar, es decir, para seleccionar los significados o las estructuras más adecuados de un conjunto conocido de posibilidades, se requieren diversas estrategias de solución en cada caso.

En relación con la sintaxis, existe ambigüedad en el marcaje de partes del habla, esta ambigüedad se refiere a que una palabra puede tener varias categorías sintácticas, por ejemplo ante puede ser una preposición o un sustantivo, etc. Conocer la marca correcta para cada palabra de una oración ayudaría en la desambiguación sintáctica, sin embargo la desambiguación de este marcaje requiere a su vez cierta clase de análisis sintáctico.

En el análisis sintáctico es necesario tratar con diversas formas de ambigüedad. La ambigüedad principal ocurre cuando la información sintáctica no es suficiente para tomar una decisión de asignación de estructura. La ambigüedad existe aún para los hablantes nativos, es decir, hay diferentes lecturas para una misma frase. Por ejemplo, en la oración Javier habló con el profesor del CIC, puede pensarse en el profesor del CIC como un complemento de hablar o también puede leerse que Javier habló con el profesor sobre un tema, habló con él del CIC.

También existe ambigüedad en los complementos circunstanciales. Por ejemplo, en la frase Me gusta beber licores con mis amigos, el grupo con mis amigos es un complemento de beber y no de licores. Mientras un hablante nativo no considerará la posibilidad del complemento licores con mis amigos, para la computadora ambas posibilidades son reales.

Como mencionamos, la información léxica puede ayudar a resolver muchas ambigüedades, en otros casos la proximidad semántica puede ayudar en la desambiguación. Por ejemplo: Me gusta beber licores con menta y Me gusta beber licores con mis amigos; en ambas frases la clase semántica del sustantivo final ayuda a resolver la ambigüedad, es decir con qué parte de la frase están enlazadas las frases preposicionales, con menta y con mis amigos. Ni menta ni amigos son palabras ambiguas pero amigos está más cercana semánticamente a beber que a licores y menta está más cercana a licor que a beber.

La ambigüedad es el problema más importante en el procesamiento de textos en lenguaje natural, por lo que la resolución de ambigüedades es la tarea más importante a llevar a cabo y el punto central de las investigaciones consideradas en este volumen. Debido a que existe ambigüedad aún para los humanos, no es una tarea de la resolución de ambigüedades lograr una única asignación de estructuras en el análisis sintáctico de textos, sino eliminar la gran cantidad de variantes que normalmente se producen.

1.6          Estructura del libro

El problema del análisis sintáctico y la desambiguación de las estructuras sintácticas generadas es un elemento importante en el análisis lingüístico de textos por computadora. Los analizadores sintácticos que se han construido con una base puramente gramatical generan tal cantidad de variantes que su empleo resulta casi inútil. Para eliminar esa gran cantidad de variantes incorrectas se han desarrollado distintos métodos, entre ellos las restricciones en los formalismos gramaticales, una noción muy importante de la gramática universal. Con el mismo fin, se han incluido otros métodos en los analizadores, principalmente métodos estadísticos para obtener las probabilidades de concurrencias de palabras o categorías gramaticales. Sin embargo, para resolver la desambiguación de estructura sintáctica se requiere proveer a la máquina con el conocimiento lingüístico que los hablantes nativos poseen, absorbido en los años iniciales del aprendizaje del primer lenguaje. Este conocimiento lingüístico está asociado con fuentes de conocimiento léxico, sintáctico y semántico.

En las investigaciones aquí presentadas describimos un nuevo modelo de análisis sintáctico y desambiguación para el español. El analizador sintáctico incluye un esquema de diferentes fuentes de conocimiento, cada una como un grado de libertad en un dominio específico. La desambiguación estructural se basa en la contribución mayoritaria de las evaluaciones cuantitativas de cada una de las variantes, todas en un formato compatible.

El enfoque para resolver la ambigüedad estructural considera los siguientes aspectos: introducir fuentes de conocimiento léxico, sintáctico y semántico, representar este conocimiento en diccionarios cuya compilación sea automática en su mayor parte, desarrollar algoritmos muy simples y eficientes para todas las tareas necesarias, y el uso recursivo de las herramientas desarrolladas.

La desambiguación sintáctica aquí propuesta restringe la gran cantidad de variantes que normalmente se generan, así que la base del análisis sintáctico pasa de la tarea infinita de definir una gramática de cobertura total para el lenguaje, a la tarea principal de buscar los objetos de cada palabra.

El capítulo uno es una introducción al análisis sintáctico automático. En el capítulo dos presentamos los antecedentes del desarrollo de las investigaciones en análisis sintáctico automático, los formalismos gramaticales y su evolución histórica dentro de la Lingüística Computacional y las herramientas requeridas. Presentamos dos enfoques principales: las gramáticas generativas y las gramáticas de dependencias. Por una parte, la evolución de las teorías derivadas de los constituyentes para superar los problemas generados por las transformaciones y cómo se paliaron estos problemas mediante las restricciones. Por otra parte, las teorías derivadas de las dependencias y los formalismos desarrollados. Después presentamos la descripción de las estructuras sintácticas de los objetos de las palabras, según cada uno de los formalismos representativos para comparar la información que cada uno propone y el nivel en el que sitúa su descripción. Por último, la tendencia lexicista como la convergencia de ambas descripciones.

En el capítulo tres presentamos el desarrollo de la aplicación del modelo de dependencias al español. Presentamos la descripción detallada de las valencias, las complejidades que se presentan, las peculiaridades semánticas y sintácticas del español que se describen en los patrones de rección y ejemplos de estos patrones para verbos, sustantivos y adjetivos. Enseguida, analizamos algunas características del español, principalmente las que difieren de los lenguajes cuyo orden de palabras es más estricto, para describirlas bajo un enfoque generalizado de descripción de valencias, con mayor énfasis en el formalismo de la MTT.

En el capítulo cuatro presentamos el desarrollo de un analizador básico basado en las gramáticas generativas. Describimos la gramática generativa experimental que llevamos a cabo, su creación, características y verificación. Presentamos el algoritmo seleccionado para realizar el análisis sintáctico con la gramática generativa y describimos el algoritmo desarrollado para la transformación a una forma compatible de dependencias.

Describimos la información que proponemos para los nuevos patrones de rección y la descripción de su notación formal. Presentamos también las diferencias entre la descripción de valencias en los enfoques considerados. Basándonos en este análisis proponemos una forma nueva de descripción de los Patrones de rección, a la que denominamos Patrones de rección avanzados (PRA), con información cualitativa para el análisis sintáctico. Debido al conocimiento lingüístico que se requiere en dichos patrones, consideramos un método semiautomático de adquisición de esa información a partir de un corpus de textos. Por último, presentamos un algoritmo para reducir el número de variantes posibles de análisis, es decir, de desambiguación sintáctica.

En el capítulo cinco presentamos el algoritmo de adquisición de los patrones de rección para la compilación del diccionario, donde empleamos el analizador básico construido. Empezamos explicando la deducción del modelo. A continuación mostramos ejemplos de los patrones compilados, las estadísticas obtenidas y la comparación entre métodos de compilación en forma tradicional y en forma automatizada. Por último, presentamos los resultados de los ensayos realizados sobre un conjunto de prueba.

En el capítulo seis presentamos un algoritmo de análisis y desambiguación, describimos el modelo general, es decir, el modelo completo y cada uno de sus subsistemas. Luego mostramos el empleo de la red semántica para la desambiguación sintáctica y enseguida la formulación de la evaluación cuantitativa de las variantes sintácticas, el algoritmo de votación y su expansión a un multimodelo. Finalmente presentamos otras fuentes de conocimiento necesarias para la desambiguación sintáctica.

 


 


 

 

 


Capítulo 2   Formalismos gramaticales


Este capítulo introduce al lector en la descripción de la sintaxis de lenguaje y presenta un panorama de términos y teorías que nos permiten hablar de las estructuras sintácticas de oraciones y describirlas con precisión. Distintos autores enfatizan diferentes aspectos de la estructura que forman las palabras en una oración. En este capítulo pretendemos mostrar una perspectiva balanceada de varias teorías sintácticas.

2.1          La sintaxis

Se tiende a creer que las palabras componen una oración como una progresión en una sola dimensión. Sin embargo, la propiedad del lenguaje natural que es de importancia central en la sintaxis es que tiene dos dimensiones. La primera es explícita, el orden lineal de palabras, y la segunda es implícita, la estructura jerárquica de palabras. El orden lineal es lo mismo que la secuencia de las palabras en la oración. El papel de la estructura jerárquica se presenta a menudo como una dependencia, podemos ejemplificarla con las siguientes frases:

una persona sola en la construcción

una persona interesada en la construcción

En la primera frase, el grupo de palabras en la construcción se une al grupo una persona indicando el lugar donde se encuentra la persona, mientras que en la segunda frase el mismo grupo se une a interesada indicando cuál es su interés. Lo que hace la diferencia en las interpretaciones, no es evidentemente un orden lineal puesto que el grupo en la construcción se encuentra en el final de ambas frases, y tampoco se trata de la distancia lineal en las dos frases.

Tanto el orden lineal como la estructura jerárquica, aunque principalmente esta última, son el tema principal en los formalismos para el análisis sintáctico. Los enfoques que presentamos consideran esa jerarquía como relaciones entre combinaciones de las palabras o entre palabras mismas.

En este capítulo, con una breve retrospectiva histórica y el estado actual, presentamos los formalismos gramaticales en la lingüística computacional, desde el punto de vista de los principales enfoques y ejemplos representativos de cada una. Consideramos los dos enfoques que por mucho tiempo se han considerado opuestos y que en años recientes tienen más coincidencias: la gramática generativa —cuyo principal representante es la teoría desarrollada por Chomsky en sus diversas variantes—, y la tradición estructuralista europea que proviene de Tesniére —con el ejemplo más representativo, la teoría Sentido Û Texto de I. A. Mel’čuk. El sistema formal de esta última es comparable en alcance y contenido con la escuela generativa.

Siguiendo el paradigma de Chomsky se han desarrollado muchos formalismos para la descripción y el análisis sintácticos. El concepto básico de la gramática generativa es simplemente un sistema de reglas que define de una manera formal y precisa un conjunto de secuencias (cadenas a partir de un vocabulario de palabras) que representan las oraciones bien formadas de un lenguaje específico. Las gramáticas bien conocidas en otras ramas de la ciencia de la computación, las expresiones regulares y las gramáticas independientes del contexto, son gramáticas generativas también.

Chomsky y sus seguidores desarrollaron y formalizaron una teoría gramatical basada en la noción de generación (Chomsky, 1965). El trabajo que se realiza en la gramática generativa descansa en la suposición acerca de que la estructura de la oración está organizada jerárquicamente en frases (y por consiguiente en estructura de frase). Un ejemplo de la segmentación y clasificación que se realiza en este enfoque se presenta en la figura 1A, en el árbol de constituyentes para la frase los niños pequeños estudian pocas horas, donde O significa oración.

Figura 1.  Estructuras sintácticas

Un árbol de estructura de frase revela la estructura de una expresión en términos de agrupamientos (bloques) de palabras, que consisten en bloques más pequeños, los cuales, a su vez, consisten de bloques aún más pequeños, etc. En un árbol de estructura de frase, la mayoría de los nodos representan agrupamientos sintácticos o frases y no corresponden a las formas de las palabras reales de la oración bajo análisis. Símbolos como GN (grupo nominal), GV (grupo verbal), N (sustantivo), GP (grupo preposicional), etc., aparecen en los árboles de estructura de frase como etiquetas en los nodos, y se supone que estas etiquetas únicas determinan completamente las funciones sintácticas de los nodos correspondientes.

En el enfoque de estructura de frase, la categorización (la membresía de clase sintáctica) de las unidades sintácticas se especifica como una parte integral de la representación sintáctica, pero no se declaran explícitamente las relaciones entre unidades.

Las Gramáticas de Dependencias se basan en las nociones de que la sintaxis es casi totalmente una materia de capacidades de combinación, y en el cumplimiento de los requerimientos de las palabras solas. En el trabajo más influyente en este enfoque, el de Tesnière (1959), el modelo para describir estos fenómenos es semejante a la formación de moléculas, a partir de átomos, en la química. Como átomos, las palabras tienen valencias; están aptas para combinar con un cierto número y clase de palabras distintas formando piezas más grandes de material lingüístico.

Las valencias de una palabra se rellenan con otras palabras, las cuales realizan dos tipos de función: principales (denominadas actuantes) y auxiliares (denominados circunstanciales o modificadores). Las descripciones de valencias de palabras son el dispositivo principal para describir estructuras sintácticas en las gramáticas de dependencias.

La gramática de dependencias supone que hay comúnmente una asimetría entre las palabras de una frase: una palabra es la rectora, algunas otras son sus dependientes. Cada palabra tiene su rectora, excepto la raíz, pero no todas tienen dependientes. Por ejemplo, una palabra es niños, la modificadora es pequeños. La palabra rectora raíz da origen a la construcción total y la determina. Las dependientes se ajustan a las demandas sobre la construcción impuestas por la rectora. La diferencia entre rectoras y dependientes se refleja en la jerarquía de nodos en el árbol de dependencias.

Las gramáticas de dependencia, como las gramáticas de estructura de frase, emplean árboles a fin de describir la estructura de una frase u oración completa. Mientras la gramática de estructura de frase asocia los nodos en el árbol con constituyentes mayores o menores y usa los arcos para representar la relación entre una parte y la totalidad, todos los nodos en un árbol de dependencias representan palabras elementales y los arcos denotan las relaciones directas sintagmáticas entre esos elementos (figura 1B).

Las teorías de estructura de frase y las gramáticas de dependencias se han desarrollado en paralelo. Ambas han marcado la forma en la que se concibe la sintaxis en el procesamiento lingüístico de textos. A lo largo de casi cuarenta años muchos formalismos se han desarrollado dentro de ambos enfoques de una manera muy diferente. Mientras los constituyentes han sido aplicados a la mayoría de los lenguajes naturales con la intención de una cobertura amplia, las dependencias han sido aplicadas en pocos lenguajes con una cobertura restringida. Primero presentamos un panorama del desarrollo de la estructura de frase y a continuación el desarrollo de las gramáticas con dependencias.

2.2          Gramáticas generativas

2.2.1       Primera Etapa

Chomsky, en su libro Estructuras Sintácticas (1957), presentó una versión inicial de la Gramática Generativa Transformacional (GGT), gramática en la cuál la sintaxis se conoce como sintaxis generativa. Una de las características del análisis presentado ahí, y en subsecuentes trabajos transformacionales, es la inclusión de postulados explícitos formales en las reglas de producción, cuyo único propósito era generar todas las oraciones gramaticales del lenguaje bajo estudio, es decir, del inglés.

La gramática transformacional inicial influyó a las teorías posteriores en el énfasis para la formulación precisa de las hipótesis, característica primordial en el enfoque de constituyentes. Ejemplos de las reglas de producción que se emplean para esa formulación precisa son las siguientes, con las cuales se construyó el árbol de la figura 1A:

O    ® GN GV                Adj   ® pequeños | pocos

GV  ® V GN                  Sust  ® niños | horas

GN  ® Art Sust Adj         V      ® estudian

GN  ® Adj Sust               Art    ® los

La flecha significa que se reescribe como, es decir, el elemento de la izquierda se puede sustituir con el agrupamiento completo de la derecha. Por ejemplo, una oración (O) se puede reescribir como un grupo nominal (GN) seguido de un grupo verbal (GV). Un GN puede reescribirse como un artículo (Art) seguido de un sustantivo (Sust) y un adjetivo (Adj). Un grupo verbal puede sustituirse con un verbo (V) seguido de un grupo nominal. Todos los elementos que no han sido sustituidos por palabras específicas se denominan no-terminales (GV, O, etc.), los elementos del lenguaje específico se denominan terminales (estudian, los, etc.).

Este tipo de reglas corresponde a una gramática independiente del contexto. Esto se debe a que los elementos de la izquierda en las reglas solamente contienen un elemento no terminal y por lo tanto no se establece el contexto en el que deben aparecer. Este tipo de gramáticas es el segundo tipo de gramáticas menos restrictivas en la clasificación de Chomsky, que pueden analizarse con un autómata de pila, y para las cuales existen algoritmos de análisis eficientes (Aho et al., 1986).

Chomsky (1957) dio varios argumentos para mostrar que se requería algo más que las solas reglas de estructura de frase para dar una descripción razonable del inglés, y por extensión de cualquier lenguaje natural, por lo que se requerían las transformaciones, es decir, reglas con caracteríticas más eficaces. Las relaciones como sujeto y objeto[3], fueron un ejemplo de la necesidad del desarrollo de la gramática transformacional, ya que su representación no era posible con las reglas independientes del contexto.

2.2.1.1 Modelo Transformacional

La GGT define oraciones gramaticales de una manera indirecta. Las estructuras aquí denominadas subyacentes o base se generan mediante un sistema de reglas de estructura de frase y después se aplican sucesivamente las reglas transformacionales para mapear esas estructuras de frase a otras estructuras de frase. Esta sucesión se llama derivación transformacional e involucra una secuencia de estructuras de frase, de una estructura base a una estructura de frase denominada estructura superficial, cuya cadena de palabras corresponde a una oración del lenguaje. Desde este punto de vista, las oraciones del lenguaje son aquellas que pueden derivarse de esta manera.

Una propuesta clave de las gramáticas transformacionales, en todas sus versiones, es que una gramática empíricamente adecuada requiere que las oraciones estén asociadas no con una sola estructura de árbol sino con una secuencia de árboles, cada una relacionada a la siguiente por una transformación. Las transformaciones se aplican de acuerdo a reglas particulares en forma ordenada; en algunos casos las transformaciones son obligatorias. Ejemplos de transformaciones son el cambio de forma afirmativa a forma interrogativa, y de forma activa a pasiva.

La hipótesis de la gramática transformacional es que, por ejemplo, la frase (b) se deriva, mediante reglas y el diccionario, de (a), con una transformación, alterando la estructura de tal forma que la frase con -qué es inicial dentro de O.

(a)        Todos se preguntan [el profesor qué cosa ha dicho]

(b)        Todos se preguntan [qué cosa ha dicho el profesor]

Este tipo de transformación opera únicamente sobre oraciones que puedan analizarse con una estructura como

,

donde O indica una oración, X una secuencia de palabras y Yv el grupo verbal. GN es el grupo nominal.

En el ejemplo anterior el profesor correspondería a X y ha dicho correspondería a Yv. La frase anterior entonces puede modificarse mediante la transformación que incluye el “movimiento” del constituyente X a la posición final, denotada como:

,

que corresponde a (b). Sin embargo, al estudiar más detenidamente el problema, encontramos que se requieren ciertas condiciones adicionales para la descripción general, por ejemplo, en el caso en que X es animado requiere la preposición a. Otra transformación es la que se realiza a partir de la estructura subyacente el hombre está corriendo para obtener la correspondiente forma interrogativa ¿Está corriendo el hombre?

Entre las transformaciones más importantes se encuentra la relacionada a las oraciones pasivas. Por ejemplo: Un león fue atrapado por la policía, que se deriva de las mismas estructuras subyacentes de sus contrapartes activas, la policía atrapó un león, por medio de una transformación a pasiva que permuta el orden de los dos grupos nominales e inserta las palabras fue y por en los lugares adecuados, directamente. En español, el cambio del objeto directo en la misma frase a una persona requiere además la inclusión de la preposición a, por ejemplo: un ladrón  fue atrapado por la policía y la policía atrapó a un ladrón.

Otro punto muy importante de la GGT fue el tratamiento del sistema de verbos auxiliares del inglés, el análisis más importante en esta teoría. Chomsky propuso que el tiempo, en las formas verbales, estuviera en la estructura sintáctica subyacente, como un formante separado del verbo del cual formaba parte. Propuso dos transformaciones, una de movimiento para considerar la inversión del auxiliar en las preguntas y una de inserción que situaba la palabra correspondiente a “no” (not) en el lugar apropiado para las oraciones de negación.

La GGT dominó el campo de la teoría sintáctica de los años sesenta a los ochenta. La GGT cambió significativamente desde su aparición, pero a pesar de su evolución la noción de derivación transformacional ha estado presente de una u otra manera en prácticamente cada una de sus formulaciones.

2.2.1.2 Teoría estándar

La GGT inicial se transformó con base en los cambios propuestos en los trabajos de Katz y Postal (1964) y de Chomsky (1965). La teoría resultante fue la Teoría Estándar (Standard Theory, en inglés, ST). Entre esos cambios, la ST introdujo el uso de reglas recursivas de estructura de frase para eliminar las transformaciones que combinaban múltiples árboles en uno solo, y la inclusión de características sintácticas para considerar la subcategorización (tema de la sección 2.4). Otra aportación fue la adición de una componente semántica interpretativa a la teoría de la gramática transformacional.

Las reglas de estructura de frase permiten la recursividad, por ejemplo, en verbos como decir, que además de tener un complemento tipo grupo nominal (dijo una mentira) aceptan complementos tipo oración (dijo que María decía mentiras). Un ejemplo de reglas recursivas es:

O    ® GN GV

GV  ® V O

En la primera regla, O puede reescribirse con GN GV, y a su vez GV tiene sustitución de O, y así sucesivamente (Juan dijo que María dijo que Pedro dijo …).

En la ST se presenta el concepto de estructura profunda, es decir, el árbol inicial en cada derivación de la oración. Esta estructura profunda representaba de una forma transparente toda la información necesaria para la interpretación semántica. Se sostenía que había un mapeo simple entre los roles semánticos desempeñados por los argumentos del verbo y las relaciones gramaticales [4] de la estructura profunda (sujeto, objeto, etc.). En el árbol final de la derivación, las palabras y las frases estaban ordenadas en la forma en que la oración sería realmente pronunciada, es decir, en su estructura superficial.

En esta teoría, las transformaciones se propusieron para constituirse como enlace primario entre voz y sentido en el lenguaje. Los experimentos iniciales que mostraban una correlación entre la complejidad de una oración y el número de transformaciones propuestas en su derivación dieron credibilidad a esta idea, pero investigaciones posteriores mostraron que no se podía sustentar. Ninguna teoría generativa actual mantiene esta idea central de las transformaciones.

Uno de los problemas fundamentales planteados por la ST es que el sentido está determinado a partir de la estructura profunda, antes de la aplicación de las transformaciones, pero entonces la influencia de las transformaciones sobre los sentidos no es nada clara.

La mayoría de las teorías gramaticales contemporáneas han mantenido las innovaciones más importantes de la ST, es decir, las características sintácticas, la estructura de frase recursiva y alguna clase de componente semántica.

2.2.1.3 Teoría estándar ampliada

Chomsky y algunos otros abandonaron poco después de la ST la idea de que las oraciones con estructuras profundas idénticas debían ser sinónimas. En particular, demostraron que las transformaciones que reordenan grupos nominales cuantificados pueden cambiar el alcance de los cuantificadores. Un ejemplo muy conocido es mucha gente lee pocos libros que tiene interpretaciones diferentes de pocos libros son leídos por mucha gente. En consecuencia, propusieron que estructuras diferentes, de las estructuras profundas, debían desempeñar un papel en la interpretación semántica.

El marco teórico que Chomsky denominó Teoría Estándar Ampliada (The Extended Standard Theory en inglés, EST), presentó una teoría muy reducida en transformaciones, y en su lugar se mejoraron otros componentes de la teoría para mantener la capacidad descriptiva. Además de nuevos tipos de reglas semánticas, introdujeron la esquematización de reglas de estructura de frase, y una concepción mejorada del diccionario, incluyendo reglas léxicas. Estas modificaciones se han trasladado a muchos trabajos contemporáneos.

La EST consideró la introducción de categorías vacías, que son elementos que ocupan posiciones en un árbol pero que no tienen una realización fonética. Incluyen un tipo de pronombre nulo usado en construcciones de control[5], y huellas[6] de elementos que han sido trasladados. Por ejemplo[7] —ver la figura 2—, un sujeto nulo (anáfora pronominal pro) en la frase española Estudian pocas horas; una huella de grupo nominal en la frase Juan parece ser feliz (la huella GN corresponde a Juan, el sujeto semántico de ser).

Figura 2. Categorías vacías

Uno de los intereses centrales de la EST, y del trabajo posterior, ha sido restringir la potencia de la teoría, es decir, restringir la clase de gramáticas que la teoría hace disponibles. La explicación principal para buscar esas restricciones ha sido considerar la posibilidad de la adquisición del lenguaje, la cuál fue reconocida por Chomsky como la cuestión central de sus estudios lingüísticos.

Las teorías que surgieron a partir de la EST buscaron sobre todo resolver las cuestiones metodológicas debidas a la sobrecapacidad del modelo. Salomaa (1971) y Peters y Ritchie (1973) demostraron que el modelo transformacional era equivalente a una gramática sin restricciones, es decir, del tipo 0 en la jerarquía de Chomsky.

De hecho, después de varios años de trabajo, estaba claro que las reglas transformacionales eran muy poderosas y se permitían para toda clase de operaciones que realmente nunca habían sido necesarias en las gramáticas de lenguajes naturales. Por lo que el objetivo de restringir las transformaciones se volvió un tema de investigación muy importante.

Bresnan (1978) presentó la Gramática Transformacional Realista que por primera vez proporcionaba un tratamiento convincente de numerosos fenómenos, como la posibilidad de tener forma pasiva en términos léxicos y no en términos transformacionales. El camino de Bresnan fue seguido por otros investigadores que intentaron de eliminar totalmente las transformaciones en la teoría sintáctica.

Otra circunstancia en favor de la eliminación de las transformaciones fue la introducción de la Gramática de Montague (1970, 1974), ya que al proveer de nuevas técnicas para la caracterización de los sentidos, directamente en términos de la estructura superficial, eliminaba la motivación semántica para las transformaciones sintácticas.

En muchas versiones de la gramática transformacional, las oraciones pasivas y activas se derivaban de una estructura común subyacente, acarreando la sugerencia controversial de que las derivaciones transformacionales preservaban muchos aspectos del sentido. Con el empleo de métodos de análisis semántico como el de Montague, se podían asignar formalmente distintas estructuras superficiales a distintas, pero equivalentes, interpretaciones semánticas; de esta manera, se consideraba la semántica sin necesidad de las transformaciones.

Es así como a fines de la década de los setenta y principios de los ochenta surgen los formalismos generativos, donde las transformaciones, si existen, tienen un papel menor. Los más notables entre éstos son: Government and Binding (GB), Generalized Phrase Structure Grammar (GPSG), Lexical-Functional Grammar (LFG) y Head-Driven Phrase Structure Grammar (HPSG), que indican los caminos que han llevado al estado actual en el enfoque de constituyentes.

2.2.1.4 Teoría de la rección y Ligamento (GB)

La teoría de la Rección y Ligamento conocida como GB apareció por primera vez en el libro Lectures on Government and Binding de 1981 (Chomsky, 1982). El objetivo primordial de la GB, como gran parte del trabajo de Chomsky, fue el desarrollo de una teoría de la gramática universal. La GB afirma que muchos de los principios que integran esta teoría están parametrizados, en el sentido de que los valores varían dentro de un rango limitado. La GB afirma que todos los lenguajes son esencialmente semejantes, y que el conocimiento experimental de un lenguaje particular o de otro es una especie de sintonización fina dentro de un rango determinado, es decir, con unos pocos parámetros restringidos de posible variación.

La noción que adquiere un papel preponderante en el enfoque de constituyentes es una noción muy importante de la Gramatical Universal: la restricción. La suposición en que se basa esta teoría, y que comparten por muchas otras, es que cualquier cosa es posible y que los datos faltantes en la oración reflejan la operación de alguna restricción. El área más activa de investigación sintáctica desde los inicios de los ochenta ha sido precisamente la resolución de los detalles de este ambicioso programa.

En la GB se sigue el desarrollo del estilo modular de la EST, dividiendo la teoría de la gramática en un conjunto de subteorías, cada una con su propio conjunto universal de principios. Aunque la GB aún utiliza las derivaciones transformacionales para analizar oraciones, reduce la componente transformacional a una sola regla (Move a), que puede mover cualquier elemento a cualquier lugar. La idea es que los principios generales filtren la mayoría de las derivaciones, previniendo la generación excesiva o masiva que pudiera ocurrir.

La organización general de la GB, con todos sus componentes[8], presentada por Sells (1985), se muestra en la figura 3.

Figura 3. Organización de la GB

Las estructuras -d y -s desempeñan una función similar, pero no idéntica, que las nociones de estructura profunda y superficial, respectivamente, de la ST. Estos niveles están relacionados por la operación Move-a, donde a se debe entender como una variable sobre las categorías sintácticas. Puede considerarse que muchas de las transformaciones de las teorías precedentes se factorizaron en operaciones elementales donde ya no existen reglas específicas (transformaciones), como la de la pasiva, sino que existe el movimiento de cualquier elemento a cualquier posición, y los principios y las restricciones regulan las operaciones de Move-a.

La Teoría q (o de relaciones temáticas) provee información semántica. Los q-roles se refieren a los participantes en la acción del verbo. En la GB se presupone que hay un número relativamente pequeño, y por supuesto finito, de estos roles, y se emplea el criterio q para establecer exactamente el número de argumentos que léxicamente especifica cada núcleo-h[9].

El filtro de caso se emplea para la buena formación de la estructura y la distribución de grupos nominales. Se basa en la noción tradicional de caso gramatical (nominativo, acusativo, dativo), que varía con el tipo de lenguaje.

La Teoría del Ligamento (Binding Theory, en inglés, BT)  —que ha sido el mayor tópico de investigación dentro de la GB— caracteriza las relaciones interpretativas entre grupos nominales. La BT reúne principios como el Principio de la Categoría Vacía (PCV). El análisis en la GB propone diferentes tipos que podrían clasificarse, de acuerdo a las características anafórica y pronominal, en abiertos o vacíos. Los de tipo abierto son explícitos y reflexivos; los vacíos son: desplazamiento wh[10] en formas interrogativas, pronombres tácitos del español (pro), pronombres para infinitivos (PRO), huellas de GN en verbos de control.

El movimiento va dejando huellas (una clase de categoría vacía), las cuales están limitadas por el elemento que se ha movido. La BT relaciona así las restricciones en el movimiento con posibles relaciones de pronombres con antecedentes. La GB considera que, intuitivamente, las anáforas son aquellas que deben tener un antecedente (como los pronombres reflexivos) y los pronominales (como los pronombres personales) pueden tener un antecedente; todo esto se considera dentro de la misma cláusula. Puesto que el movimiento se usa para tratar con un rango amplio de fenómenos —entre ellos la relación activa - pasiva, la extraposición[11], y la inversión de auxiliares—, se produce un sistema abundantemente interconectado al ligar todos éstos a los principios de la BT.

En la GB hay un cambio importante en la descripción estructural. Las estructuras de frase están altamente articuladas, es decir, combinadas y relacionadas según ciertas normas de distribución, orden y dependencias. Distinciones y relaciones, lingüísticamente significantes, están codificadas dentro de las configuraciones del árbol tipo GB. Por ejemplo, la categoría abstracta INFL, que contiene información de tiempo y concordancia.

La literatura dentro de este formalismo es vasta, y representa un rango mucho más amplio de análisis que en cualquiera de las otras teorías consideradas. Estudios lingüísticos del español se han basado en este formalismo para sus descripciones (Lamiroy, 1994; Wilkins, 1997).

El descendiente más actual de la GB es el Programa Minimalista (PM) (Chomsky, 1995). Como su nombre lo implica, PM es más un programa de investigación que una teoría de sintaxis ya realizada. El PM explora la idea de que en lugar de generar oraciones directamente, lo que las gramáticas deberían hacer es seleccionar las mejores expresiones a partir de un conjunto de candidatas. El trabajo de elaborar los detalles del PM está aún en etapas iniciales.

2.2.1.5 Gramática de estructura de frase generalizada (GPSG)

La Gramática de Estructura de Frase Generalizada (Generalized Phrase Structure Grammar, en inglés, GPSG) fue iniciada por Gerald Gazdar en 1981, y desarrollada por él y un grupo de investigadores, e integrando ideas de otros formalismos; la teoría se expone detalladamente en Gazdar et al. (1985).

La idea central de la GPSG es que las gramáticas usuales de estructura de frase independientes del contexto pueden mejorarse en formas que no enriquecen su capacidad generativa, pero que las hacen adecuadas para la descripción de la sintaxis de lenguajes naturales. Al situar la estructura de frase, otra vez, en un lugar principal, consideraban que los argumentos que se habían aducido contra las CFG, como una teoría de sintaxis, eran argumentos relacionados con la eficiencia o la elegancia de la notación y no realmente con la cobertura del lenguaje.

La GPSG propone sólo un nivel sintáctico de representación, que corresponde a la estructura superficial, y reglas que no son de estructura de frase, en el sentido en que no están en una correspondencia directa con partes del árbol. Entre otras ideas importantes originadas en esta teoría está la separación de las reglas en reglas de dominancia inmediata (reglas ID, Immediate dominance en inglés) que especifican solamente las frases que pueden aparecer como nodos en un árbol sintáctico, y las reglas de precedencia lineal (reglas LP, Linear precedence en inglés) que especifican restricciones generales que determinan el orden de los nodos en cualquier árbol.

Una consideración importante en las reglas es que puede describirse información gramatical. Esta información gramatical codificada se toma como restricción en la admisibilidad en los nodos. Por ejemplo:

O    ® GN GV

GV  ® duerme / Juan_

GN  ® Juan / _duerme

Las dos últimas reglas son reglas sensitivas al contexto, no generan nada porque la primera establece la reescritura de O por GN GV, pero ellas dos, interpretadas como la posibilidad de admisión, se refieren a que se admite Juan duerme como una oración a la que se le generaron árboles, enseguida se le revisaron los nodos y se verificó la cadena.

Así que, aunque la GPSG excluye las transformaciones, la gramática se vuelve gramatical-léxica, realmente dice poco o nada acerca del diccionario. Especialmente la información de subcategorías del verbo se encuentra en las reglas ID léxicas y no como entradas léxicas en el diccionario.

Esta teoría incluye la consideración del núcleo-h en las reglas, y de categorías. Las categorías son un conjunto de pares característica - valor. Las características tienen dos propiedades: tipos de valores y regularidades distribucionales (compartidos con otras características). La GPSG es de hecho una teoría de cómo la información sintáctica fluye dentro de la estructura. Esta información está codificada mediante características sintácticas. Todas la teorías sintácticas emplean características en diferentes grados, pero en la GPSG se emplean principios para el uso de características. Los principios determinan cómo se distribuyen las características en el árbol, o restringen la clase de categorías posibles.

Otra idea importante en la GPSG es el tratamiento de las construcciones de dependencia a largas distancias, incluyendo las construcciones de llenado de faltantes (filling gap en inglés) como: topicalización[12], preguntas con Wh y cláusulas relativas. Este fenómeno estaba considerado como totalmente fuera del alcance de las gramáticas sin transformaciones. En las dependencias a larga distancia, sin límite, existe una relación entre dos posiciones en la estructura sintáctica, relación que puede alargarse. Por ejemplo, en la frase:

    Which woman did Max say _ has declared herself President?

(¿Qué mujer dijo Max que se había declarado Presidenta?)

El guión bajo indica la posición de la frase desplazada which woman, que puede alejarse a una posición potencialmente sin límite en el árbol sintáctico. Mientras en la GB se dejaba una huella, en la GPSG el trato de este fenómeno involucra una codificación local de la ausencia del constituyente dado mediante una especificación de características.

Por ejemplo, a partir de la regla:

GV ® H[40], O[FIN]

que introduce una oración finita como un nodo, se puede obtener, mediante una metaregla, la siguiente regla:

GV / GN ® H[40], GV[FIN]

con un GV finito en lugar de la oración, y con la indicación del GN faltante mediante la diagonal. La GPSG incluye la introducción de head en las reglas, que se marca con H en los ejemplos anteriores. La última regla permite el árbol sintáctico de la figura 4, para un fragmento de la cláusula relativa la niña que vi que corrió, que correspondería al desplazamiento al inicio, de la cadena la niña en la frase vi la niña que corrió.

Figura 4. Fragmento de cláusula relativa

El resultado más importante del análisis en la GPSG es que pudo manejar construcciones que se pensaba sólo podían describirse con la ayuda de las transformaciones. En este formalismo las transformaciones no figuran en ningún sentido en la teoría; es más, sin transformaciones de las dependencias de llenado de faltantes tuvo éxito en estos fenómenos, donde la teoría transformacional había fallado.

2.2.1.6 Gramática léxica funcional (LFG)

La teoría de la Gramática Léxica Funcional (Lexical Functional Grammar en inglés, LFG) desarrollada por Bresnan (1982) y Dalrymple et al. (1995) comparte con otros formalismos la idea de que los conceptos relacionales, como sujeto y objeto, son de importancia central y no pueden definirse en términos de estructuras de árboles. La LFG considera que hay más en la sintaxis de lo que se puede expresar con árboles de estructura de frase, pero también considera la estructura de frase como una parte esencial de la descripción gramatical.

La LFG se ha centrado en el desarrollo de una teoría universal acerca de cómo las estructuras de constituyentes se asocian con los objetos sintácticos. La LFG toma esos objetos sintácticos como primitivas de la teoría, en términos de las cuales se establecen una gran cantidad de reglas y condiciones.

En la LFG, hay dos niveles paralelos de representación sintáctica: la estructura de constituyentes (estructura-c) y la estructura funcional (estructura-f). La primera tiene la forma de árboles de estructura de frase independientes del contexto. La segunda es un conjunto de pares de atributos y valores donde los atributos pueden ser características como tiempo y género, u objetos sintácticos como sujeto y objeto. En la LFG se considera que la estructura-f despliega los objetos sintácticos. Por ejemplo:

Las flechas (­ y ¯) se refieren a la estructura-f correspondiente al nodo de la estructura-c construida por la regla. La flecha hacia arriba se refiere a la estructura-f del nodo madre y la flecha hacia abajo se refiere a la estructura-f del nodo mismo. Estas anotaciones indican que toda la información funcional que lleva el GN (es decir, la estructura-f de GN) va a la parte SUJ (sujeto) de la estructura-f del nodo madre (es decir, la estructura-f de O), y que toda la información funcional que lleva el GV (es decir, la estructura-f de GV) también es información de la estructura-f del nodo madre. De esta manera se establecen las relaciones entre estructuras, la estructura-f para la frase Paco come tacos, sería la siguiente:

El valor de PRED (de predicado), indica el contenido semántico del elemento correspondiente. Por ejemplo el contenido semántico del sujeto en esa frase es Paco. En la entrada del verbo comer la parte léxica <(­SUJ)(­OBJ)> indica que el verbo subcategoriza un sujeto y un objeto; mediante las flechas se especifica que la estructura-f del nodo madre tiene un sujeto y un objeto. La inflexión del verbo añade la información del atributo tiempo verbal con el valor PRES (presente).

El nombre de la teoría enfatiza una diferencia importante entre la LFG y la tradición Chomskyana en la cuál se desarrolló: muchos fenómenos se analizan de una forma más natural en términos de objetos sintácticos (como se representan en el diccionario o en la estructura-f) que en el nivel de la estructura de frase. La parte léxica enfatiza la expresión para caracterizar procesos que alteran la relación de los predicados en el diccionario. Por ejemplo, la relación entre construcciones pasivas y activas.

En la LFG cada frase se asocia con estructuras múltiples de distintos tipos, donde cada estructura expresa una clase diferente de información acerca de la frase. Siendo las dos representaciones principales las mencionadas estructura funcional y estructura de constituyentes (similar a la estructura superficial de la ST). Los principios generales y las restricciones de construcción específica definen las posibles parejas de estructuras funcionales y de constituyentes. La LFG reconoce un número más amplio de niveles de representación. Tal vez los más notables entre éstos son las estructuras-s, que representan aspectos lingüísticamente relevantes del sentido, y la estructura-a que sirve para enlazar argumentos sintácticos con aspectos de sus sentidos (Bresnan, 1995) y que codifica información léxica acerca del número de argumentos, su tipo sintáctico y su organización jerárquica, necesarios para realizar el mapeo a la estructura sintáctica.

Todos los elementos léxicos se insertan en estructuras-c en forma totalmente flexionada. Debido a que en la LFG no hay transformaciones, mucho del trabajo descriptivo que se hacía con ellas se maneja mediante un diccionario enriquecido, una idea importante de la LFG. Por ejemplo, la relación activa-pasiva se determina solamente por un proceso léxico que relaciona formas pasivas del verbo a formas activas, así, en lugar de tratarse como una transformación, se maneja en el diccionario como una relación léxica entre dos formas de verbos.

La regla de pasiva es una regla léxica que esencialmente añade el morfema de pasiva al verbo, y cambia sus complementos de tal manera que el argumento asociado con el objeto de la forma activa se convierte en sujeto, y el sujeto se asigna a una función nula o a un Agente Oblicuo.

Por ejemplo, en la frase tacos comidos por Paco:

En las LFG iniciales, la relación activa-pasiva fue codificada en términos de reglas léxicas. El trabajo posterior ha buscado desarrollar una concepción más abstracta de las relaciones léxicas en términos de una teoría de mapeo léxico (TML). La TML provee restricciones en la relación entre estructuras-f y estructuras-a, es decir, restricciones asociadas con argumentos particulares que parcialmente determinan su función gramatical. Contiene también mecanismos con los cuales los argumentos pueden suprimirse en el curso de la derivación léxica. En la LFG la información de las entradas léxicas y las marcas de la frase se unifican para producir las estructuras funcionales de expresiones complejas.

2.2.1.7 Gramática de estructura de frase dirigida por el Núcleo-H (HSPG)

La Gramática de Estructura de Frase dirigida por el núcleo-h (Head-driven Phrase Structure Grammar en inglés, HPSG) iniciada por Pollard y Sag (1987) y revisada por ellos mismos (1994) evolucionó directamente de la GPSG con la intención de modificarla incorporando otras ideas y formalismos de los años ochenta. El nombre se modificó para reflejar el hecho de la importancia de la información codificada en los núcleos-h léxicos de las frases sintácticas, es decir, de la preponderancia del empleo de la marca head en el subconstituyente hija principal.

En la HPSG se consideró que no había nada de especial en los sujetos salvo que eran el menos oblicuo de los complementos que el núcleo-h selecciona. Para la GB el sujeto difiere de los complementos en la posición que tiene en el árbol de proyecciones. Esta consideración empezó a cambiar cuando se revisó la teoría en 1994, ya que se pensó en el sujeto en forma separada.

En la revisión de 1994, la HPSG amplía el rango de los tipos lingüísticos considerados, los signos consisten no solamente de la forma fonética sino de otros atributos o características, con la finalidad de tratar una mayor cantidad de problemas empíricos. En esta teoría los atributos de la estructura lingüística están relacionados mediante una estructura compartida.

El principal tipo de objeto en la HPSG es el signo (correspondiente a la estructura de características clase sign), y se divide en dos subtipos disjuntos: los signos de frase (tipo frase) y los signos léxicos (tipo palabra). Las palabras poseen como mínimo dos atributos: uno fonético PHON (representación del contenido de sonido del signo) y otro SYNSEM (compuesto de información lingüística tanto sintáctica como semántica).

Con los atributos y valores de estos objetos se crea una estructura de características como la de la

figura 5[13] para la palabra ella, y enseguida, mediante diagramas de matrices atributo-valor (MAV), en la figura 6. En la

figura 5 las etiquetas de los nodos marcan los valores y las etiquetas de los arcos los atributos. En la figura 6 los valores intermedios aparecen en la parte baja. Los cuadros marca  1  establecen ligas de valores.

Figura 5. Estructura para el pronombre ella

De acuerdo a principios especiales introducidos en la teoría, las características principales de los núcleos-h y algunas de las características de los nodos hijas se heredan a través del constituyente abarcador.

Las frases tienen un atributo DAUGHTERS (DTRS), además de PHON y SYNSEM, cuyo valor es una estructura de características de tipo estructura de constituyentes (con-struc) que representa la estructura de constituyentes inmediatos de la frase. El tipo con-struc tiene varios subtipos caracterizados por las clases de hijas que aparecen en las frases. El tipo más simple y más empleado es el head-struc que incluye HEAD-DAUGHTERS (HEAD-DTR) y COMPLEMENT-DAUGHTERS (COMP-DTRS), que a su vez tienen atributos PHON y SYNSEM. Por ejemplo, para la frase Eugenia corre se tiene la estructura en la figura 7.

Figura 6. Estructura de características mediante MAV

 


phrase  

Figura 7. Estructura de características mediante MAV

Un punto importante en la HPSG es que tiene varios principios: de constituencia inmediata de las frases (proyección de los núcleos-h), de subcategorización, de semántica, etc., que realmente son restricciones disyuntivas. En la HPSG se considera que hay dos tipos de restricciones: de la gramática universal y de la gramática particular. Así que las expresiones gramaticales de un lenguaje particular dependen de las interacciones entre un sistema complejo de restricciones universales y particulares.

Para tratar los diversos fenómenos que en la GPSG se consideraron como dependencias sin límite, la HPSG emplea dos principios de la gramática universal (el de realización de argumentos y el principio de faltantes) y una restricción del lenguaje particular (la condición sujeto).

En la HPSG, el diccionario, un sistema de entradas léxicas, corresponde a restricciones de la gramática particular. Cada palabra en el diccionario tiene información semántica que permite combinar el sentido de palabras diferentes en una estructura coherente unida.

Algunas de las ideas clave en la HPSG son entonces:

        Arquitectura basada en signos lingüísticos.

        Organización de la información lingüística mediante tipos, jerarquías de tipos y herencia de restricciones.

        La proyección de frases mediante principios generales a partir de información con abundancia léxica.

        Organización de esa información léxica mediante un sistema de tipos léxicos.

        Factorización de propiedades de frases en construcciones específicas y restricciones más generales.

2.2.2       Restricciones

En contraste con la tradición de las gramáticas generativas hay otra aproximación a la teoría generativa —igualmente sometida a la meta original de desarrollo de gramáticas formuladas de manera precisa—: las gramáticas basadas en la noción de satisfacción de restricciones en lugar de derivaciones transformacionales. En las gramáticas de restricciones las entradas léxicas incorporan información acerca de las propiedades de combinación de las palabras, con la finalidad de que solamente se requieran operaciones generales esquemáticas en la sintaxis.

2.2.2.1 Gramática categorial (CG)

La Gramática Categorial (Categorial Grammar, en inglés, CG), introducida por Ajdukiewicz, en 1935, adquirió importancia para los lingüistas cuando Montague (1970) la usó como marco sintáctico de su aproximación para analizar la semántica del lenguaje natural. La idea central de la CG es que una concepción enriquecida de categorías gramaticales puede eliminar la necesidad de muchas de las construcciones que se encuentran en otras teorías gramaticales (por ejemplo, de las transformaciones). Uno de los conceptos básicos de la CG, a partir de los setenta, es que la categoría asignada a una expresión debe enunciar su funcionalidad semántica directamente, idea tomada de Montague (1970).

Una gramática categorial consiste, simplemente, en un diccionario y unas cuantas reglas que describen cómo pueden combinarse las categorías. Las categorías gramaticales se definen en términos de sus miembros potenciales para combinarse con otros constituyentes, por lo que algunos autores ven a la CG como una variación de la Gramática de Dependencias (tema de una sección posterior). Por ejemplo, las frases verbales y los verbos intransitivos pueden caracterizarse como aquellos elementos que cuando combinan con una frase nominal a su izquierda forman oraciones, una notación de esto es GN\O. Un verbo transitivo como obtener pertenece a la categoría de elementos que toman un GN en su lado derecho para formar una oración; esto puede escribirse (GN\O) /GN.

La suposición básica de la CG es que hay un conjunto fijo de categorías básicas, de las cuales se construyen otras categorías. Estas categorías básicas son: sustantivo, grupo nominal y oración; cada una de las categorías básica tiene características morfosintácticas determinadas por el lenguaje específico. Para el inglés, el grupo nominal tiene características de persona, número y caso, el sustantivo sólo tiene número y la oración tiene forma verbal.

La CG no hace una distinción formal entre categorías léxicas y no léxicas, por lo que, por ejemplo, un verbo intransitivo como dormir se trata como perteneciente a la misma categoría que una frase que consiste en un verbo transitivo más un objeto directo, como obtiene un descanso.

La operación fundamental (Carpenter, 1995) es concatenar una expresión asignada a una categoría funcional, con una expresión de su categoría de argumento, para formar una expresión de su categoría resultante. El orden de la concatenación está especificado como una categoría funcional. Por ejemplo, un determinante será especificado como una categoría funcional que toma un complemento nominal a su derecha para formar un grupo nominal resultante; la concordancia se maneja mediante la identidad de características simples.

La CG es esencialmente un formalismo de estructura de frase donde hay asignaciones léxicas a expresiones básicas y un conjunto de reglas de estructura de frase que combinan expresiones para producir frases totalmente basadas en categorización sintáctica. La CG difiere de otros formalismos porque postula un conjunto infinito de categorías y de reglas de estructura de frase en lugar de conjuntos finitos como en las CFG.

Los atractivos principales de la CG fueron su simplicidad conceptual y su adecuación a la formulación de análisis sintácticos y semánticos estrechamente ligados. Esto último debido a que se considera que restringe las asignaciones léxicas a expresiones básicas y a construcciones sintácticas potenciales, de tal forma que solamente se permiten las combinaciones de categorías sintácticas semánticamente significantes. Se asume en esta teoría que la estructura sintáctica determina una semántica funcional manejada por los tipos de composiciones.

Se considera que por el empleo de las restricciones sintácticas y semánticas, todas las generalizaciones específicas del lenguaje se determinan léxicamente. Una vez definido el diccionario para un lenguaje, las reglas universales de combinación sintáctica y semántica se emplean para determinar el conjunto de expresiones gramaticales y sus sentidos. De lo anterior se observa la responsabilidad que se deja al diccionario, y que implica que deben proveerse mecanismos léxicos que consideren generalizaciones del lenguaje específico dentro del mismo.

Una de las motivaciones para emplear este formalismo es la facilidad con que puede extenderse para proveer análisis semánticos adecuados de dependencias sin límite y construcciones de coordinación. La CG (Carpenter, 1997) está muy influenciada por la LFG, la GPSG, la HPSG y otros análisis gramaticales categoriales y de unificación.

2.2.2.2 Gramática de restricciones (GR)

En la Gramática de Restricciones (GR) —en inglés Constraint Grammar (Karlsson et al., 1995)—, toda la estructura relevante se asigna directamente de la morfología (considerada en el diccionario), y de mapeos simples de la morfología a la sintaxis (información de categorías morfológicas y orden de palabras, a etiquetas sintácticas). Las restricciones sirven para eliminar muchas alternativas posibles. Los autores indican que su meta principal es el análisis sintáctico orientado a la superficie y basado en morfología de textos sin restricciones. Se considera sintaxis superficial, y no sintaxis profunda, porque no se asigna ninguna estructura sintáctica que no esté en correspondencia directa con los componentes léxicos de las formas de palabra que están en la oración.

Ejemplos de esas restricciones para el inglés son:

        Una marca de verbo en presente, pasado, imperativo o subjuntivo no debe ocurrir después de un artículo.

        La función sintáctica de un sustantivo en inglés es sujeto si va seguido de un verbo en forma activa y no intervienen sustantivos (de tipo sintáctico).

En la GR, la base de los postulados gramaticales son restricciones similares a reglas, pero si el postulado gramatical falla se dispone de características probabilísticas opcionales. Para la GR son requeridos tanto las restricciones (reglas gramaticales) como los postulados probabilísticos, no se trata de dos aproximaciones contrarias o de selección, aunque la relativa importancia probabilística es menor que en otras aproximaciones, ya que aquí se enfatiza que el núcleo de la GR está destinado más a una naturaleza lingüística que a una probabilística.

Una idea relevante de la GR es poner en primer plano la descripción de ambigüedades, por lo que básicamente es un formalismo para escribir reglas de desambiguación. Divide el problema de análisis sintáctico en tres módulos: desambiguación morfológica, asignación de límites de cláusulas dentro de las oraciones y asignación de etiquetas sintácticas superficiales. Las etiquetas indican la función sintáctica superficial de cada palabra y las relaciones de dependencia básica dentro de la cláusula y la oración.

La noción de restricción se basa en hechos cercanos a la morfología superficial de la palabra, a la dependencia sintáctica entre palabras y al orden de palabras, en lugar de basarse en principios abstractos de estructuración. La mayor desventaja consiste en el trabajo necesario para establecer las restricciones; Voutilainen (1995) postula 35 restricciones para desambiguar la palabra that y Anttila (1995) emplea 30 restricciones sintácticas para la desambiguación del sujeto gramatical en inglés. Los mismos autores postularon alrededor de 2000 restricciones para el inglés. La GR comparte con la LFG el uso de sujeto, objeto, etc., aunque como etiquetas que se toman del repertorio clásico de núcleo y modificadores, por lo que sus autores la consideran funcional.

2.2.2.3 Gramática de Adjunción de árboles (TAG)

La Gramática de Adjunción de Árboles (Tree Adjoining Grammar, en inglés, TAG, Joshi, 1985) es una gramática definida por los elementos I, A donde I y A son conjuntos finitos de árboles elementales. Los árboles elementales están asociados con un elemento léxico, es decir, con una palabra, son una unidad sintáctica y semántica, y tienen operaciones de combinación. Estas operaciones presentan restricciones lingüísticas.

La TAG puede generar lenguajes más generales que las CFG, pero no puede generar todos los lenguajes sensitivos al contexto, así que la fuerza de la TAG es ligeramente mayor que la de las CFG, en cuanto a las gramáticas que genera.

Los árboles iniciales tienen sólo terminales en sus hojas, y los árboles auxiliares se distinguen por tener un elemento X* en la base del árbol, cuya proyección es el nodo raíz X. La idea es que I y A sean mínimos en cierto sentido, que el inicial no tenga recursión en ningún no-terminal, y que en los auxiliares X corresponda a una estructura mínima recursiva que pueda llevar a la derivación si hay recursión en X.

Las operaciones son: adjunción y sustitución. La adjunción es una operación que separa un nodo interior del árbol inicial para adjuntar un árbol auxiliar. Al separar el nodo interior, el subárbol bajo éste se transfiere a partir del elemento X*. La operación de sustitución simplemente suple un nodo hoja del árbol inicial por el árbol del auxiliar que se sustituye.

Operación de adjunción:

Operación de sustitución:

En la TAG, cada elemento léxico se llama ancla de la estructura correspondiente a la cuál especifica restricciones lingüísticas. Así que las restricciones son locales a la estructura anclada. Cada nodo interno de un árbol elemental se asocia con dos estructuras de rasgos: tope y bajo. La estructura-bajo contiene información relacionada al subárbol con raíz en el nodo (es decir, relación con sus descendientes), y la estructura-tope contiene información relacionada con al superárbol en ese nodo. Los nodos de sustitución tienen solamente una estructura-tope, mientras que los otros nodos tienen ambas estructuras: tope y bajo. En las dos operaciones definidas se unifican las estructuras de rasgos.

2.3          Gramáticas de dependencias

Mel’čuk (1979) explicó que un lenguaje de estructura de frase describe muy bien cómo los elementos de una expresión en lenguaje natural combinan con otros elementos para formar unidades más amplias de un orden mayor, y así sucesivamente. Un lenguaje de dependencias, por el contrario, describe cómo los elementos se relacionan con otros elementos, y se concentra en las relaciones entre unidades sintácticas últimas, es decir, entre palabras.

La estructura de un lenguaje también se puede describir mediante árboles de dependenciasque presentan las siguientes características:

        Muestran cuáles elementos se relacionan con cuáles otros y en que forma.

        Revelan la estructura de una expresión en términos de ligas jerárquicas entre sus elementos reales, es decir, entre palabras.

        Se indican explícitamente los roles sintácticos, mediante etiquetas especiales.

        Contienen solamente nodos terminales, no se requiere una representación abstracta de agrupamientos[14].

Con las dependencias se especifican fácilmente los tipos de relaciones sintácticas, pero la membresía de clase sintáctica (categorización) de unidades de orden más alto (GN, GP, etc.) no se establece directamente dentro de la representación sintáctica misma, así que no hay símbolos no-terminales en representaciones de dependencias.

Una gramática cercana a este enfoque de dependencias es la Gramática Relacional (Relational Grammar en inglés, RG, Perlmutter, 1983) que adopta primitivas que son conceptualmente muy cercanas a las nociones relacionales tradicionales de sujeto, objeto directo, y objeto indirecto. Las reglas gramaticales de la RG se formularon en términos relacionales, reemplazando las formulaciones iniciales, basadas en configuraciones de árboles. Por ejemplo, la regla pasiva se establece más en términos de promover el objeto directo al sujeto, que como un reacomodo estructural de grupos nominales.

A continuación describimos los formalismos más representativos: Dependency Unification Grammar (DUG), Word Grammar (WG) y Meaning Û Text Theory (MTT).

2.3.1       Gramática de dependencias y unificación

La historia de la Gramática de Dependencias y Unificación (Dependency Unification Grammar en inglés, Hellwig, 1986) se origina al principio de los años setenta, con el desarrollo del sistema llamado PLAIN (Hellwig, 1980), aplicando diferentes métodos para la sintaxis y la semántica, y combinando una descripción sintáctica basada en dependencias llamada Gramática de Valencias con Transformaciones para simular relaciones lógico-semánticas. Desde sus inicios empleó categorías complejas con atributos y valores, y un mecanismo de subsumisión para establecer la concordancia. En los años ochenta enfatizó su filiación a las gramáticas de unificación, resultando en la DUG. Desde entonces tanto PLAIN como DUG se han aplicado en diversos proyectos (Hellwig, 1995) y se han ido modificando.

La noción de unificación corresponde a la idea de unión de conjuntos, para la mayoría de los propósitos. La unificación es una operación para combinar o mezclar dos elementos en uno solo que concuerde con ambos. Esta operación tiene gran importancia en estructuras de rasgos (género, etc.). La unificación difiere en que falla si algún atributo está especificado con valores en conflicto, por ejemplo: al unificar dos atributos de número dónde uno es plural y otro es singular (ver Briscoe y Carroll, 1993).

La DUG ha sido implementada en el Instituto de Lingüística Computacional de la Universidad de Heidelberg como un marco de trabajo para análisis sintáctico de lenguajes naturales (Hellwig, 1983). Las DUG para el alemán, el francés y el inglés han sido elaboradas para los proyectos ESPRIT y LRE Translator's Work Bench (TWB) y Selecting Information from Text (SIFT).

Tres conceptos son los más importantes en esta teoría como gramática de dependencias: el lexicalismo, los complementos y las funciones. Por lexicalismo considera la suposición de que la mayoría de los fenómenos en un lenguaje dependen de los elementos léxicos individuales, suposición que es válida para la sintaxis (igualando los elementos léxicos con las palabras). Los complementos son importantes para establecer todas las clases de propiedades y relaciones entre objetos en el mundo verdadero. La importancia de las funciones, entre otras categorías sintácticas, está relacionada con el hecho de que cada complemento tiene una función específica en la relación semántica establecida por el núcleo-h. La función concreta de cada complemento establece su identidad y se hace explícita por una explicación léxica, por ejemplo: el verbo persuadir requiere un complemento que denote al persuasor, otro complemento que denote la persona persuadida y aún otro que denote el contenido de la persuasión.

En la DUG, una construcción sintáctica estándar consiste en un elemento núcleo-h y un número de constituyentes que completan a ese elemento núcleo-h. Para este propósito se necesitan palabras que denoten la propiedad o relación, y expresiones que denoten las entidades cualificadas o relacionadas. La morfología y el orden de palabras marcan los roles de los constituyentes respectivos en una oración. En ausencia de complementos, el rector, es decir el verbo, está insaturado. Sin embargo, es posible predecir el número y la clase de construcciones sintácticas que son adecuadas para complementar cada palabra rectora particular.

Como la DUG se ha aplicado principalmente al alemán, considera el orden de palabras en el árbol de dependencias. Este árbol difiere de los árboles usuales de gramáticas de dependencias en que los nodos tienen etiquetas múltiples. El orden de palabras es entonces otro atributo. Se examina el orden lineal de los segmentos que se asocian a los nodos del árbol de dependencias. DUG considera características de posición con valores concretos que se calculan y se sujetan a la unificación.

2.3.2       Teoría Significado Û Texto

Consideramos el conjunto de objetos sintácticos de los verbos como la variedad de marcos de subcategorización que pueden estar relacionados unos a otros a través de alternaciones de valencias. Pocos formalismos consideran todas las posibilidades de estas alternaciones como punto focal de su descripción sintáctica, entre ellos la Teoría Sentido Û Texto (Meaning Û Text Theory en inglés, MTT).

La Teoría Sentido Û Texto, desde el ensayo de Mel’čuk y Zholkovsky (1970), ha sido elaborada y refinada en diversos artículos y libros. La concepción de cómo los significados léxicos interactúan con las reglas sintácticas es de las mejor desarrolladas y con más principio en la literatura.

La meta de la teoría es modelar la comprensión del lenguaje como un mecanismo que convierta los significados en los textos correspondientes y los textos en los significados correspondientes. Aunque no hay una correspondencia de uno a uno, ya que el mismo significado puede expresarse mediante diferentes textos, y un mismo texto puede tener diferentes significados.

La MTT emplea un mayor número de niveles de representación, tanto la sintaxis como la morfología y la fonología se dividen en dos niveles: profundo (D) y superficial (S). Bajo estos términos, la morfología profunda (DMorR) es más superficial que la sintaxis superficial (SSintR). Las nociones de profundo y más superficial significan que conforme progresa la representación de la semántica a la fonología superficial (SFonR), ésta se vuelve más y más detallada y específica del lenguaje.

La MTT es un sistema estratificado. Cada oración se caracteriza simultáneamente por siete diferentes representaciones, cada una especifica la oración desde la perspectiva del nivel correspondiente. Cada nivel de representación se mapea al adyacente mediante una de las seis componentes de la MTT. En la figura 8 se muestran estos siete niveles como en Mel’čuk, 1988.

 

Figura 8. Niveles de Representación en la MTT

En la figura 9, se presenta un ejemplo del árbol de dependencias de acuerdo a la MTT —de Mel’čuk, 1988— para la frase Siqueiros acusó a Rivera de pintar para turistas y esto agravó sus diferencias, donde se hace una comparación con un árbol de constituyentes. Este árbol de dependencias presenta dos ventajas: requiere exactamente trece nodos (el número de palabras), y el orden lineal de los nodos es absolutamente irrelevante, ya que la información se preserva a través de las dependencias etiquetadas.

Figura 9. Ejemplo de estructura de dependencias en la MTT

Cada nivel de representación se considera como un lenguaje separado en el sentido de que tiene su propio vocabulario diferente y reglas distintas de combinación. La transición de un nivel a otro es un proceso de tipo traducción, que involucra el cambio tanto de los elementos como de las relaciones entre ellos, pero que no cambia el contenido informativo de la representación.

Tres conjuntos de conceptos y términos son esenciales para la MTT en su aproximación a la sintaxis:

        Una situación y sus participantes (actuantes).

        Una palabra y sus actuantes semánticos, que forman la valencia semántica de la palabra.

        Una palabra y sus actuantes sintácticos, que forman la valencia sintáctica de la palabra.

La situación, en esta teoría, significa un bloque de la realidad reflejada por el léxico de un lenguaje dado. Los actuantes semánticos de una situación deben y pueden determinarse sin ningún recurso de la sintaxis, y corresponden a esas entidades cuya existencia está implicada por su significado léxico. Por ejemplo, para Mel’čuk (1988) la diátesis es la correspondencia entre los actuantes: semánticos, de la sintaxis profunda, y de la sintaxis superficial.

Los actuantes semánticos y los roles temáticos son similares, aunque los roles temáticos, siguiendo la tradición de los constituyentes, tratan de generalizar los participantes, y la MTT los particulariza, describiéndolos para cada verbo específico.

La MTT usa la noción de valencia sintáctica, es decir, la totalidad de los actuantes sintácticos de la palabra. Esta noción es similar a la característica de subcategorización de la vieja gramática transformacional y a los argumentos de la teoría X-barra. La diferencia es que la valencia sintáctica se define independientemente de, y en yuxtaposición a, la valencia semántica. Esto hace posible usar claramente consideraciones semánticamente especificadas en la definición de la valencia sintáctica y marcar una diferencia entre ellas y las consideraciones sintácticas.

2.4          Descripción sintáctica

Las entradas léxicas en diccionarios manuales llevan una gran cantidad de información diferente acerca de los lexemas. Una pieza muy importante de información que algunos de los lexemas llevan es la información que ciertos lingüistas llaman subcategorización. La información de subcategorización especifica la categoría del lexema, su número de argumentos, la categoría de cada argumento y, usualmente, la posición respecto al lexema. Adicionalmente, a veces se incluye también la información de las características, como género, número, etc.

El ejemplo más simple de subcategorización es la diferencia entre un verbo transitivo y uno intransitivo; un verbo transitivo debe tener un objeto a fin de ser gramatical, por ejemplo:

María ablanda la carne.

*María ablanda.

Y un verbo intransitivo no puede tener un objeto, por ejemplo:

María cojea.

*María cojea una pierna.

En el ejemplo previo, ablandar es un verbo y debe aparecer inmediatamente precediendo un grupo nominal GN (la carne). Se dice que ese verbo subcategoriza un GN. A partir de esta clasificación simple, transitivos e intransitivos, se amplía la información para considerar todos los casos posibles, por ejemplo la doble transitividad (Cano, 1987) considera que el verbo subcategoriza dos complementos.

En el procesamiento lingüístico de textos por computadora, básicamente la subcategorización se refiere al número de argumentos y a la categoría de cada argumento, pero la forma de definir cuáles son y cómo se representan los argumentos subcategorizados por un lexema dado es distinta en los diferentes formalismos, en los dos enfoques considerados en el análisis sintáctico.

En el enfoque de dependencias, donde se emplean muchos de los términos de la gramática tradicional, para nombrar esta información se emplea el término valencia sintáctica, que nosotros seguimos en el título y en algunos subtítulos de esta sección.

En el enfoque de constituyentes, la subcategorización se representa en términos sintácticos, es decir, por su estructura y parte del habla. Los verbos pueden subcategorizar diferentes tipos, no solamente los GN, por ejemplo, el verbo dar subcategoriza un grupo nominal (GN) y un grupo preposicional (GP), en ese orden: Juan da un libro a María.

Aunque, desde el punto de vista de este enfoque, la subcategorización se describe de una manera más fija, contrasta con las colocaciones. Las colocaciones describen los contextos locales, que son importantes de una manera preferencial o estadística en la frase. Por ejemplo, en el proyecto DECIDE para construcción de recursos, diccionarios y corpus principalmente (DECIDE, 1996), se considera la información de subcategorización (subcat) como una lista con frecuencias de aparición de diferentes palabras unidas a la palabra seleccionada en un corpus. En este diccionario, incluso aparecen las combinaciones con una sola ocurrencia, que solamente tiene un significado estadístico y que no representan la realización de un complemento.

En el enfoque de constituyentes o gramáticas de frase, la selección semántica no es una condición ni suficiente ni necesaria para la subcategorización. Así que la mayoría de estas teorías lingüísticas incluyen en el marco de subcategorización predicados[15] o frases cuya ocurrencia es obligatoria en el contexto local de la frase del predicado, aunque no sean seleccionados semánticamente por él.

Dentro del enfoque de constituyentes presentamos, en esta sección, la descripción de las valencias sintácticas para los formalismos GB, GPSG, LFG, CG y HPSG.

Las teorías lingüísticas basadas en dependencias incluyen, en la información de las valencias sintácticas, las frases cuya ocurrencia es obligatoria en el contexto semántico del verbo. Adicionalmente, algunos formalismos consideran los complementos circunstanciales, con una clara distinción entre ellos y los especificados semánticamente. Este razonamiento se basa en separar las alternaciones de valencias, específicas de cada lexema, y los complementos circunstanciales, comunes a distintos lexemas.

En la MTT, las valencias sintácticas describen únicamente las frases cuya ocurrencia es obligatoria en el contexto semántico del verbo. En cambio, la DUG y la Gramática Funcional de Dependencias (FDG, Functional Dependency Grammar, en inglés, Tapanainen et al., 1997) adicionalmente describen los predicados circunstanciales. Dentro del enfoque de dependencias, presentamos la descripción de las valencias sintácticas para los formalismos DUG y MTT.

Así que, en general, la valencia sintáctica o subcategorización concierne a la especificación de frases que son preponderantes al contexto del verbo porque son seleccionadas por el lexema, sintácticamente, semánticamente o ambas. Aunque todas las teorías lingüísticas tienen medios para expresar los aspectos sintácticos, y morfosintácticos, de subcategorización, la referencia directa a la selección semántica puede expresarse únicamente en aquellos formalismos que incluyen un nivel de representación semántica.

Desde el punto de vista del procesamiento lingüístico de textos, la especificación de la estructura de las valencias sintácticas es necesaria para codificar la información concerniente al contexto y al orden de palabras, a fin de limitar el análisis y la generación del lenguaje natural (este argumento se explicará más adelante). La complejidad resulta por el aspecto multidimensional de la estructura de las valencias sintácticas, porque la subcategorización involucra referencia a diversos niveles de descripción gramatical, aspectos morfológicos, sintácticos y semánticos de la especificación de las palabras, y también por la interfase entre estos niveles de descripción gramatical.

Se ha puesto una gran atención a esta información en los diccionarios computacionales como COMLEX (Grishman et al., 1994), no solamente para verbos, sino para adjetivos y sustantivos que llevan complementos. En el procesamiento lingüístico de textos esta información ayuda a establecer las combinaciones posibles de los complementos en la oración. Pero también tiene importancia relevante para la traducción automática, por ejemplo, Fabre (1996) estudió las relaciones predicativas de sustantivos para interpretar compuestos nominales en francés e inglés.

Las teorías lingüísticas difieren en la cantidad de información que proveen en la valencia sintáctica de un verbo. Esto se debe, mayormente, a las diferentes tendencias al usar principios y reglas sintácticas para expresar generalizaciones lingüísticas, con el consecuente cambio de énfasis, más lejano o más próximo, respecto a la especificación léxica. En esta sección presentamos una revisión de diversos enfoques adoptados en las teorías lingüísticas y a continuación un análisis de ellos.

2.4.1       Subcategorización en gramáticas generativas

2.4.1.1 Gramática de rección y ligamento

Mientras desarrollaban la GB se percataron de la gran redundancia de información en las reglas de estructura de frase y en los marcos de subcategorización. Por ejemplo, la información de que un verbo transitivo va seguido de un objeto tipo GN estaba codificada tanto en la regla que expande el GV, como en el marco de subcategorización del verbo. La GB movió esta información a los marcos de subcategorización de los núcleos-h. La razón para hacer esto es que cada verbo selecciona-c (c por categoría), un cierto subconjunto del rango de proyecciones máximas.

La teoría de la X-barra presenta la idea de que se encuentran patrones similares dentro de cada una de las estructuras internas de diferentes frases en un lenguaje. Por ejemplo, tanto el verbo como las preposiciones preceden a su objeto. El núcleo-h de una unidad lingüística es esa parte de la unidad que da su carácter esencial. Así, el núcleo-h de un GN es el sustantivo; de manera similar, un verbo es el núcleo-h de un GV, y así sucesivamente.

En este formalismo, la frase es una proyección del núcleo. Se consideran dos niveles de proyección. Por ejemplo, en el nivel más bajo el núcleo léxico y los argumentos (constituyentes a los cuales subcategoriza el núcleo) se denotan con una barra o un apóstrofo (, N'), y, en el siguiente nivel, esa misma estructura con modificadores y especificadores se denota con dos barras o dos apóstrofos (, N''). Esta última es la máxima proyección, donde N'' es igual que GN, V'' igual a GV, etc.

Un ejemplo de modificadores y especificadores son los adjetivos y artículos para N’. No hay duda de que cualquier proyección máxima (es decir, GA, GN, GP, O', o GV) puede ser, en principio, el argumento de un núcleo-h, aunque típicamente núcleos-h diferentes seleccionan elementos diferentes del conjunto de proyecciones máximas como sus argumentos. El verbo ablandar selecciona GN, decir selecciona O' (como en dijo que la carne estaba lista), etc.

A partir de estas nociones se ve como la información de subcategorización limita el análisis y la generación de lenguaje natural. La subcategorización se usa como un filtro en el análisis y en la generación de estructuras de frase en el siguiente sentido: si tratamos, por ejemplo, de hacer la inserción léxica de ablandar en una estructura donde es hermana izquierda de una O', esa estructura con ese núcleo-h se descartará, porque su subcategorización requiere un GN.

En la GB, la relación indirecta entre el verbo y su sujeto es un aspecto crucial de la teoría total y está presente en todos los análisis. El sujeto, en inglés, no aparece como hermano del núcleo-h del GV, y por lo tanto no puede ser subcategorizado por ese núcleo-h. El dominio de subcategorización está limitado al dominio de la proyección máxima que contiene el núcleo-h, y es realmente esta noción de dominio dentro de la proyección máxima —en lugar de la noción de ser hermana— la que es importante en esta teoría. El sujeto no está dentro del dominio del verbo ya que la proyección máxima del verbo es GV. Esto resulta en diferencias tanto del comportamiento sintáctico del sujeto y de los complementos (que no son sujetos), como en el hecho de que el sujeto es externo al GV (ver la figura 10). Así, los complementos que no son sujetos son los únicos que pueden subcategorizarse en este formalismo.

El sujeto es el GN inmediatamente dominado por O, y el objeto es el GN inmediatamente dominado por el GV. En la GB, esto se representa comúnmente por las notaciones [GN, S] y [GN, GV] respectivamente. El uso de los términos sujeto y objeto en este formalismo son las abreviaturas de esas definiciones estructurales. Desde este punto de vista, el objeto de la estructura-d puede volverse en el sujeto de la estructura-s en la construcción pasiva.

Figura 10. Relación indirecta entre sujeto y objeto

La subcategorización en la GB se describe en un nivel de descripción sintáctica donde los argumentos de un predicado se reunen en un conjunto donde cada elemento corresponde a un papel temático indexado. Dentro de la estructura de argumentos de un predicado puede haber una posición distinguida que funciona como el papel temático del núcleo-h de la estructura de argumentos y como una totalidad. Este papel temático se denota como el argumento externo, ya que puede ser asignado solamente fuera de la proyección máxima de su predicado.

En versiones posteriores de la GB (Chomsky, 1986), a diferencia de la mayoría de las otras teorías gramaticales, las frases se asumen como las proyecciones máximas de la frase con inflexión, la que introduce la morfología verbal (por ejemplo, tiempo y aspecto). En la figura 10, INFL es la inflexión.

La descripción en la figura 11, corresponde a Sells (1985), la subcategorización (selección categorial) en paréntesis angulares y la estructura de argumentos (selección semántica) en paréntesis, donde el argumento externo está subrayado. La información de los papeles temáticos restantes, es decir, de los argumentos internos, está disponible únicamente dentro de la primera proyección del predicado.

ablandar, V, <GN> (Agente, Tema)

dar, V, <GN, GP> (Agente, Tema, Meta)

Figura 11. Papeles temáticos y subcategorización

La realización sintáctica de los papeles temáticos en la estructura del argumento se limita y asegura por el Principio de Proyección y por el Criterio-Theta, que se presentan a continuación:

        Principio de Proyección. Las representaciones en cada nivel sintáctico (es decir la forma lógica y las estructuras -d y -s) se proyectan desde el diccionario, siguiendo las propiedades de subcategorización de los elementos léxicos.

        Criterio-_. Cada argumento sostiene uno y sólo un papel-_, y cada papel-_ está asignado solamente a un argumento.

El criterio-q dice, en forma simple, que el significado de un predicado determina qué argumentos gramaticales tendrá. El principio de proyección garantiza que la estructura determinada por el significado léxico del núcleo-h no sea alterada en forma esencial.

También hay un principio que relaciona la subcategorización y la asignación de papeles-T o papeles temáticos (comúnmente llamado marcado-T). La subcategorización se relaciona a posiciones en un arreglo y el marcado-T  al contenido léxico dominado por esa posición. Si _ subcategoriza la posición ocupada por _, entonces _ marca-T  a _.

Como la subcategorización está relacionada a posiciones, debe codificarse algún tipo de posición de argumento temático para el sujeto, en la entrada léxica del verbo. Chomsky (1986) asume que la selección categorial (selección-c) puede derivarse como la Realización Estructural Canónica (CSR) de su categoría semántica. Por ejemplo, la CSR (rol paciente) es un grupo nominal. Consecuentemente, solo la selección semántica (selección-s) necesita expresarse en el diccionario.

En el enfoque de constituyentes, la GB dentro de ella, también se consideran los predicados no seleccionados semánticamente, como los casos de complementos de verbos cuyo sujeto es pleonástico (extraposition, en inglés), verbos que se denominan “de ascensión”[16] (raising verbs en inglés), por ejemplo seem, y verbos que contrastan con estos últimos, los denominados verbos de control (control verbs[17] o equi[18] verbs, en inglés). Por ejemplo:

        Sujeto pleonástico: It annoys people that dogs bark. (Molesta a la gente que los perros ladren). El pronombre neutro it representa dogs bark (los perros ladran), el sujeto del verbo annoy (molestar). Sintácticamente existen dos argumentos correspondientes al mismo argumento semántico. El nombre “extraposición” viene del análisis transformacional, teniendo la frase that dogs bark annoys people se proponía cambiar de posición la cláusula that dogs bark al final de la frase e insertando el pronombre vacío it. En español no se requiere esa inserción, por ejemplo: Que no se le atienda a tiempo molesta a la gente y Molesta a la gente que no se le atienda a tiempo.

        Verbos de ascensión: Mary seems to be happy (María parece ser feliz) y I expected Mary to be happy (Yo esperaba que María fuera feliz). Se considera que cada verbo tiene un sujeto, incluso el infinitivo. En la primera frase, el sujeto del primer verbo (sujeto de ascensión, subject raising, en inglés) es transparente en cuanto a que también es sujeto del segundo verbo (María parece, María es feliz). En la segunda frase el objeto del primer verbo (objeto de ascensión, object raising, en inglés) es el sujeto del segundo verbo (esperaba que María, María fuera). En español existen muchos verbos que introducen otros verbos, ya sea directamente como querer, poder, o mediante una preposición como ponerse a bailar, deben de cantar, etc. Un estudio de verbos españoles, con este punto de vista, se presenta en Lamiroy (1994).

La teoría de control en la GB maneja sintácticamente los verbos equi. En estos verbos, el sujeto de verbos no finitos, es decir, de grupos verbales en infinitivo, se representa estructuralmente como la categoría vacía PRO, cuya relación con su controlador está regulada por la Teoría del Ligamento en términos del comando-c, que expresa algo así como la noción de esa subparte de un árbol para la cual una categoría determinada _ no es inferior jerárquicamente.

Maríai  intenta [PROi  dormir]

Esto implica que la subcategorización verbal, de cláusula, se expresa siempre en términos de oraciones en lugar de hacerlo en términos de grupos verbales.

Las dependencias verbales que emergen en las construcciones expletivas[19] y de sujeto de ascensión se manejan también sintácticamente. Por ejemplo, un verbo de ascensión como seem (parecer) subcategoriza una frase pero no tiene argumento externo. Existen dos casos en los que se subcategoriza una cláusula:

        Si la cláusula subcategorizada no es finita, el sujeto se mueve a una posición de sujeto en el arreglo para satisfacer el Filtro de Caso[20], puesto que solamente un GV con marca de tiempo puede asignar caso nominativo a su sujeto. Por ejemplo: Juani parece [ti dormir] donde ti es la huella del sujeto i.

        Si la cláusula subcategorizada es finita, por ejemplo en It seems that John sleeps (Parece que Juan duerme), el elemento pleonástico it se inserta en la posición sujeto del arreglo para satisfacer el Principio de Proyección Extendida, que además del Principio de Proyección anterior requiere que todas las cláusulas tengan sujeto.

Por último, las construcciones con objeto de ascensión también se consideran como si involucraran subcategorización de oraciones. Un verbo como believe subcategoriza una frase de infinitivo a cuyo sujeto se le asigna caso por el verbo en el arreglo, a través de límites de oraciones, como en Mary believes [John to be intelligent] que es una ocurrencia descrita como marcado de caso excepcional, en Chomsky (1986).

2.4.1.2 GPSG

La GPSG hace uso de características sintácticas. De entre ellas, dos ejemplos son las siguientes: una para mostrar el POS y otra para mostrar el nivel (palabras, grupo de palabras, frase). Además, desarrolla una teoría apropiada de características, expresándolas mediante pares de atributos y valores. No solamente se consideran como atributos las categorías como número, caso y persona, sino también el nivel, esto como influencia de la teoría X-barra, y también con la misma interpretación.

En la GPSG se emplea un atributo para la subcategorización, llamado SUBCAT, y se asigna un valor único a cada posible marco en el cual pueda ocurrir una categoría de nivel cero. SUBCAT es una característica del núcleo-h, es decir, de HEAD. Por ejemplo, si la entrada léxica comer sólo dice que es un verbo transitivo, es decir, [SUBCAT TRANS], entonces el hecho de que los verbos transitivos, y sólo ellos, ocurran con un nodo hermano GN puede establecerse mediante una regla ID como:

V1 ® V0 [SUBCAT TRANS], NP

donde V0 es el verbo, V1 es el grupo verbal y V2 es la máxima proyección. La GPSG comparte, con la GB, el análisis de que la máxima proyección del verbo es la oración. Una categoría puede dominar un elemento léxico si y sólo si la categoría es consistente con la entrada léxica de ese elemento. Así que sólo un verbo que sea TRANS, como comer, podrá ocurrir bajo V0 [TRANS], mientras uno intransitivo, como cojear, no podrá.

Realmente los verbos no tienen un marco de subcategorización, sino que tienen una indicación que apunta al tipo de estructura en la que aparecen. Para considerar todos los posibles tipos, GPSG utiliza números enteros como valores de SUBCAT, y los incluye en las entradas léxicas y en las reglas ID, correspondiendo a las estructuras posibles. A continuación se presentan unos ejemplos:

V1 ®    V0[1]

V1 ®    V0[6], NP, NP

cojear:  V0[1]

dar:       V0[6]

La GPSG considera posible que un verbo tenga múltiples subcategorizaciones. Cada estructura de subcategorización corresponderá a una entrada léxica separada, pero relacionada al lexema. En la GPSG existen postulados de sentido que imponen relaciones sistemáticas entre los sentidos de verbos homónimos. Estos postulados de sentido son precisamente postulados semánticos, y es en términos semánticos que la GPSG captura el hecho de múltiples subcategorizaciones.

Un problema evidente de esta teoría es que implica un gran número de reglas ID. Algo de la redundancia que se da en ellas se elimina mediante el uso de postulados LP separados (por ejemplo, para dictar el orden de los nodos hermanos en un subárbol), y otra parte se elimina por los principios de características. Pero la esencia de la objeción permanece.

Los objetos sintácticos, como sujeto y objeto, no se consideran nociones primitivas en la GPSG, sino que se definen en términos de otras primitivas de la teoría. En la GPSG, siguiendo a Dowty (1982) esas relaciones se definen en términos de la estructura semántica, es decir, en la estructura función-argumento de la semántica. Por ejemplo, un verbo transitivo como buscar requiere dos argumentos. El sujeto se define, sólo semánticamente, como el último argumento, el objeto es el siguiente del último, etc.

La diferencia entre verbos de ascensión y equi se define en la subcategorización de los verbos, es decir, en las reglas-ID que producen los nodos que los dominan inmediatamente en las estructuras sintácticas. Por ejemplo:

VP ® H[15], VP[INF, +NORM]           try

VP ® H[16], VP[INF]                          seem

donde +NORM es la abreviatura de AGR NP[NFORM NORM], que establece la concordancia del grupo nominal. Mientras para el verbo seem se permite cualquier sujeto, para el verbo try es necesario que el sujeto mediante concordancia (NORM) no pueda ser ni it ni there. Al establecer los valores de omisión para seem se presenta una complejidad. VFORM es una característica de HEAD que distingue partes del paradigma verbal: FIN (finito), INF (infinitivo), BSE (forma base), PAS (pasiva), etc.

En la GPSG, el núcleo-h sólo puede subcategorizar sus hermanas, por lo que los sujetos no se subcategorizan. Realmente no hay subcategorización para el sujeto, aunque este hecho a veces es dudoso, porque la existencia de la característica AGR para manejar la concordancia entre sujeto y verbo tiene el efecto como de permitir la subcategorización para los sujetos.

2.4.1.3 Subcategorización en LFG

La subcategorización en la LFG, como en otras gramáticas de constituyentes, se basa en una representación sintáctica de la estructura de los argumentos del predicado. Pero en la LFG, la noción de función gramatical ocupa un papel central para determinar cuáles argumentos, seleccionados semánticamente por un predicado, están realizados semánticamente y cómo.

En Bresnan (1982), las funciones gramaticales se definen como primitivas sintácticas universales de la gramática, y se clasifican de acuerdo a dos parámetros principales: la habilidad de subcategorizar y la restricción semántica. Las funciones subcategorizables que pueden asignarse a los argumentos de los lexemas son los sujetos, los objetos y los complementos de los grupos verbales de la oración. Las funciones que no son subcategorizables corresponden a frases adjuntas que no pueden asociarse con los argumentos de los lexemas.

Existen otras funciones como Tópico y Foco que se asignan a las frases desplazadas, como en la topicalización, las preguntas y las cláusulas relativas. Se considera que la habilidad de subcategorizar de estas dos funciones está sujeta a variación lingüística, ya que es posible que exista en algunos lenguajes y en otros no.

En la LFG las funciones que se pueden subcategorizar difieren con respecto al rango de tipos de argumentos con los cuales pueden asociarse, y se dividen en restringidas y sin restricción:

        Las funciones gramaticales semánticamente no restringidas no están ligadas de una manera inherente a las restricciones específicas de selección. Por ejemplo, la función sujeto, que puede realizar argumentos no temáticos como el sujeto it de seem; o aunque los sujetos son a menudo agentes, también pueden ser tema, como en la pasiva.

        Las funciones gramaticales restringidas semánticamente son las que están más íntimamente ligadas a la semántica, es decir, solamente pueden ponerse por pares con argumentos de tipos semánticos específicos. Por ejemplo, las funciones oblicuas (objeto directo, objeto indirecto), que siempre son temáticas, es decir, que nunca se asocian con elementos pleonásticos. En español sí se presenta la duplicación de objetos, como se verá en la sección 3.5.

En la siguiente figura se presenta la clasificación general de las funciones gramaticales y más adelante se describen individualmente. OBLq significa oblicuo; POSS es el genitivo prenominal, como el caso en inglés de professor’s knowledge (conocimiento del profesor).

También los complementos y los adjuntos se clasifican, en funciones cerradas o abiertas. Cerradas significa que están completas, tienen sus propios controladores, y abiertos lo opuesto, requieren antecedentes. En los ejemplos de complemento cerrado y de función adjunta cerrada (COMP, ADJ), los GN subrayados son los controladores.

        Complementos. Los complementos cerrados son los COMP y los abiertos XCOMP.

Beto cree [que María es honesta]COMP

Beto intenta [ser un buen médico]XCOMP

        Adjuntos. Los adjuntos cerrados son los ADJUNCT y los abiertos XADJUNCT.

[Beto empezaba a alegar]ADJ, María salió despavorida.

[Aún estando enojado]XADJ  Beto comió tranquilamente.

Los objetos sintácticos son asociaciones de funciones gramaticales con papeles temáticos o con valores que no son temáticos. Estas asociaciones se codifican en el diccionario, donde cada verbo se representa como un lexema que consiste en una estructura de argumentos del predicado y una asignación de función gramatical. Por ejemplo:

Estructura de argumento de predicado          romper  <agente, tema>

Asignación de función gramatical                               ((SUJ), (OBJ))

donde la estructura de argumentos del predicado de un lexema es una lista de los argumentos para los cuales existen restricciones de selección. La asignación de función gramatical de una forma léxica es una lista de sus funciones subcategorizadas sintácticamente.

La asignación de funciones gramaticales se sujeta a un número de condiciones universales. Por ejemplo, todos los predicados univalentes se asignan a SUJ, y todos los predicados bivalentes se asignan a un SUJ y a un OBJ. Una condición muy importante sobre la asignación de función gramatical es la Biunicidad de las Asignaciones Función-Argumento (Bresnan, 1982), que establece una relación uno a uno entre argumentos y funciones gramaticales dentro de la estructura predicado-argumento de un lexema.

Esas listas de asignación de función gramatical sirven como marcos de subcategorización. La subcategorización se revisa en la estructura funcional mediante dos condiciones (Kaplan y Bresnan, 1982): completitud (completeness) y coherencia (coherence):

        La completitud asegura que todos los argumentos subcategorizados estén presentes en la estructura funcional, es decir, que no haya menos argumentos. Por ejemplo, descarta frases como *Juan compra, *seems.

        La coherencia restringe la ocurrencia de funciones gramaticales subcategorizables a las listadas en la forma léxica del verbo, es decir, que no haya argumentos de más. Por ejemplo, descarta frases como *Juan cojea Memo.

Finalmente, el control funcional maneja léxicamente los verbos de control y de ascensión con referencia a funciones gramaticales. Por ejemplo, el control del sujeto con ambos tipos, de ascensión y de control, se establece en el diccionario en las partes relevantes de las entradas léxicas, como en los siguientes:

V     (­PRED) = ‘seem < (­XCOMP) > (­SUJ)’

         (­XCOMP SUJ) = (­SUJ)

V     (­PRED) = ‘try < (­XCOMP) (­SUJ)>’

         (­XCOMP SUJ) = (­SUJ)

En la descripción del verbo try se especifica que el sujeto es temático. Ya que el control se trata léxicamente y las categorías no vacías se usan para unir el sujeto complemento, se obtiene que ambos verbos (de ascensión y control) subcategorizan grupos verbales en lugar de oraciones, como se considera en la GB.

En trabajos posteriores, Bresnan revisó la teoría de los objetos sintácticos. Los objetos sintácticos como SUJ, OBL, etc., pasaron de especificaciones atómicas a definiciones en términos de características funcionales más primitivas. La teoría resultante, la Teoría Léxica de Mapeo, está formada por cuatro componentes básicos:

        Jerarquía de papeles léxicos. La jerarquía incluye los siguientes papeles en orden descendente: agente, beneficiario y maleficiario, receptor y experimentador, instrumental, paciente y tema, locativo, motivo; con base en ellos se crea una jerarquía temática universal.

        Funciones sintácticas no compuestas. Las funciones sintácticas se descomponen de acuerdo a las características [± r], temáticamente restringidos o sin restricción, y [± o], objetivo o no, por ejemplo:

                       

Individualmente, cada valor de las dos características define una función gramatical parcialmente especificada, por ejemplo:

                       

        Principios de mapeo léxico. Los papeles semánticos se asocian con funciones gramaticales especificadas parcialmente de acuerdo a los Principios de Mapeo Léxico: clasificaciones de roles intrínsecos, clasificaciones de roles morfoléxicos y clasificaciones de roles por omisión.

        Condiciones de buena formación. Después de que los principios de mapeo se han aplicado, cualquier función gramatical restante que no resulte bien especificada está totalmente instanciada. Esta instanciación es libre tanto como se observen los principios de Biunicidad y de Condición de sujeto. El primero establece que dentro de la estructura de un predicado-argumento de una forma léxica hay una relación de uno a uno entre funciones gramaticales y argumentos. La condición sujeto establece que cada forma léxica debe tener un sujeto.

Como ejemplo de la aplicación de esta Teoría léxica de mapeo se presenta el tratamiento de la forma pasiva. Para el verbo buscar, antes de la conversión a pasiva, los papeles de agente y tema del verbo están intrínsecamente asociados con funciones gramaticales parcialmente especificadas, como se muestra a continuación:

       

La regla pasiva introduce la especificación funcional [+r], es decir, restringida temáticamente, para el papel superior de una forma léxica. Cuando la pasiva se aplica a la estructura de argumentos de predicado para el verbo buscar, el papel del agente adquiere la especificación [+r], que en conjunto con [-o] define una función oblicua. El argumento agente de un verbo pasivo se realiza como un complemento oblicuo, mientras el tema puede ser sujeto u objeto. Las restricciones de buena formación inducidas por la condición de sujeto requieren que se elija la opción sujeto en este caso. A continuación se da el ejemplo del proceso descrito con una representación esquemática:

2.4.1.4 Subcategorización en CG

En la aplicación de la Gramática Categorial al estudio de lenguajes naturales se ha supuesto una colección universal de esquemas de estructura de frase, también se ha supuesto que la estructura sintáctica determina la semántica funcional de tipo composicional. De lo anterior deriva que todas las generalizaciones de un lenguaje específico deben determinarse léxicamente, por lo que una vez establecido el diccionario para ese lenguaje pueden aplicarse las reglas universales de combinación sintáctica y semántica.

En el proyecto ACQUILEX (Sanfilippo, 1993) se aplicó la Gramática Categorial de Unificación y con base en la descripción del marco ahí empleado se presenta a continuación la subcategorización. Una descripción más amplia de las estructuras de grupos verbales para el inglés se encuentra en Carpenter (1995).

La información de subcategorización en esta aproximación se encuentra dentro de la estructura de signo. Los signos están formados por una conjunción de pares atributo—valor de información ortográfica (ORTH), sintáctica (CAT) y semántica (SEM). Las palabras y las frases se representan como estructuras de características, con tipos, mediante signos.

[ORTH: orth

CAT: cat

   SEM: sem]

El atributo categoría de un signo puede ser básico o complejo:

        Las categorías básicas son las estructuras binarias de características que consisten en un tipo categoría y en una serie de pares atributo valor que codifican información morfosintáctica (cuando es necesaria). Los tipos cat básicos que se emplean son: sustantivo (n), grupo nominal (np) y oración (sent).

[CAT-TYPE: cat-type
 M-FEATS: m-feats]

Por simplicidad, se abrevian como: cat-type [m-feats]

        Las categorías complejas se definen recursivamente, dejando que el tipo cat instancie una estructura de características con los siguientes atributos: resultado (RES), que puede tomar como valor una categoría básica o una compleja; activo (ACT), que es de tipo signo; y direccción (DIR), que codifica el orden de combinación, relativo a la parte activa del signo (por ejemplo: hacia adelante o hacia atrás).

[RES: cat DIR: dir ACT: sign]

En los verbos, la parte activa de la estructura de categorías codifica las propiedades de subcategorización. Por ejemplo, sujeto (nom) y objeto (acc) en verbos transitivos:

[ORTH: < ablandar>

CAT: [RES: [RES: sent

              ACT: [np-signo

                         CAT: nom] ]

        ACT: [np-sign

                   CAT: np [acc] ] ] ]

La información semántica de un signo es una fórmula. Esta fórmula consiste en:

        Un índice (IND), que es una entidad que provee información referida a un tipo ontológico. El índice “e” indica eventualidades, “o, x, y, z” objetos individuales

        Un predicado (PRED), el argumento de un predicado puede ser una entidad o una fórmula.

        Al menos un argumento (ARG1), que puede ser a su vez una entidad o una fórmula, subsumidas por sem.

[IND: entidad

 PRED: pred

 ARG1: sem]

Por ejemplo, la estructura de características:

[IND: [1] x

 PRED: carne

 ARG1: [1] ]

donde [1] indica valores reentrantes. Por simplicidad las fórmulas se presentan en forma lineal, pueden abreviarse como <x1> carne (x1), donde x1 es una variable con nombre.

La clasificación de tipos de subcategorización involucra la definición de las estructuras semánticas predicado-argumento, de las estructuras de categorías, y de los signos de los verbos. Así que presentamos primero las descripciones de estos tres tipos de estructuras, con los ejemplos únicos necesarios, para mostrar, al final, la subcategorización completa de verbos de dos y tres argumentos.

Para describir las estructuras semánticas predicado-argumento, se siguió la clasificación de Dowty (1989). Así que el contenido semántico de las relaciones temáticas se expresa en términos de conceptos de grupos prototípicos: los roles proto-agente (p-agt) y los roles proto-paciente (p-pat), determinados para cada elección de predicado. Sanfilippo y Poznanski (1992) además de formalizar los proto-roles como superconjuntos de grupos específicos de componentes significantes, que son instrumentos en la identificación de clases semánticas de verbos, introdujeron adicionalmente dos conceptos:

        Un tercer proto-rol, prep, para argumentos preposicionales. Estos prep se consideran semánticamente restringidos, empleando los términos de la LFG.

        Los predicados sin contenido (no-q) para caracterizar la relación entre un GN pleonástico y su verbo rector.

Los verbos se caracterizan como propiedades de eventualidades, y los roles temáticos son relaciones entre eventualidades e individuos, por ejemplo, p-agt(e1, x). Una clasificación semántica primaria de los tipos de verbos se obtiene en términos de la aridad del argumento, es decir, del número de argumentos. Las diferencias adicionales se hacen según el tipo de argumentos verbales que se codifican, por ejemplo: proto-agente, proto-paciente, preposicional oblicuo/indirecto, preposicional de objeto, no-temático, pleonástico, predicativo (como xcomp), oracional (como comp).

A continuación se presentan las principales estructuras semánticas de verbos con ejemplos:

STRICT-INTRANS-SEM  Intransitivos estrictos.

Juan (proto-agente) cojea

<e1> and (<e1> pred (e1), <e1> p-agt (e1, x))

STRICT-TRANS-SEM  Transitivos estrictos.

Juan (p-ag) bebe una cerveza (p-pat)

<e1>and(<e1>pred(e1),<e1>and(<e1>p-agt(e1,x),
<e1>p-pat(e1,y)))

OBL-TRANS/DITRANS-SEM  Ditransitivos: dar

Transitivos con complemento oblicuo. Juan da un libro a María.

<e1> and (<e1> pred (e1), <e1> and (<e1>p-agt(e1,x),

<e1> and (<e1>p-pat(e1,y), <e1> prep (e1,y) )))

P-AGT-SUJ-INTRANS-XCOMP/COMP-SEM  Intransitivos con sujeto temático y complemento tipo cláusula (representada por verb-sem). Juan intentó venir y Juan pensó que María vendría.

<e1>and(<e1>pred(e1),<e1>and(<e1>p-agt(e1,x), verb-sem))

Las estructuras de categoría se distinguen a partir de los valores de las características RES y CAT. Por ejemplo, el CAT de intransitivos estrictos establece que el resultado es una categoría básica de tipo sent, y la parte activa es un grupo nominal, es decir, solamente hay selección de sujeto. A partir de tipos básicos se van construyendo tipos más complejos de categoría. Los transitivos estrictos emplean la categoría de intransitivo estricto, dando adicionalmente la categoría acusativo al objeto.

STRICT-INTRANS-CAT                    STRICT-TRANS-CAT             

[RES: sent                                              [RES: strict-intrans-cat

 ACT: np-sign]                                     ACT: [np-sign

                                                                               CAT: np[acc]]]

Las restricciones morfosintácticas se codifican en signos seleccionados (activos). Por ejemplo, en la definición de la categoría ditransitiva el argumento extremo tiene caso acusativo (como en: Juan da un libro), y en la definición de categoría para transitivos que toman un complemento de frase preposicional tiene caso preposicional p-case (por ejemplo: Juan se lo dio a María).

DITRANS-CAT                                    OBL-TRANS-CAT

[RES: strict-trans-cat                                       [RES: strict-trans-cat

 ACT: [np-sign                                                 ACT: [np-sign

            CAT: np[acc]]]                                                   CAT: np[p-case]]]

Los restantes tipos de categorías están organizados en comp-cat para verbos que toman un complemento oracional, y en xcomp-cat para verbos que toman un complemento predicativo, los xcomp-cat, además, se dividen de acuerdo al hecho de estar involucrados o no con el control.

Los signos de los verbos se definen enlazando signos activos en la estructura de categorías a las ranuras de argumento en estructuras de argumentos de predicados, es decir, los enlaces se hacen a través de las estructuras semánticas y de categorías. Estos enlaces se realizan mediante enlaces reentrantes, por ejemplo, con la marca [1] en la estructura que se muestra para verbos intransitivos estrictos.

[strict-intrans-sign

CAT: ACT: [np-sign SEM: [1] <e1>p-agt(e1, x)]

SEM: [strict-intrans-sem <e1> and (<e1> pred (e1), [1])]]

Solo se consideran patrones para verbos que tienen un máximo de 3 argumentos, por lo que únicamente necesitan dos patrones adicionales de enlace general.

[dos-argumentos-verbo-signo                   [tres-argumentos-verbo-signo

 CAT: [RES: [RES: sent                      CAT: [RES: [RES: [RES: sent

                  ACT: [sign                                                      ACT: [sign

                             SEM: [1]]]                                                        SEM: [0]]]

                                               ACT: [sign

                                           SEM: [1]]]

        ACT: [sign                                                   ACT: [sign

                   SEM: [2]]]                                   SEM: [2]]]

 SEM: <e1> and (and                           SEM: <e1> and (and (and (pred

                          (pred(e1),[1]),[2])]                                               (e1),[0]),[1]),[2])]

Finalmente, a continuación, se presentan las estructuras completas de dos-argumentos-verbo-signo y de tres-argumentos-verbo-signo. En los primeros se consideran el tipo transitivo estricto y para sujetos de verbos equi que toman un complemento de verbo en infinitivo. En los segundos se consideran los ditransitivos y los transitivos que toman un objeto oblicuo.

DOS-ARGUMENTOS-VERBO-SIGNO

STRICT-TRANS-SIGNO              SUJ-EQUI-INTRANS-GVINF-SIGNO

[CAT: strict-trans-cat                  [CAT: intrans-vpinf-control-cat

 SEM: strict-trans-sem]                 SEM:p-agt-subj-intrans-xcomp/comp-sem]

TRES-ARGUMENTOS-VERBO-SIGNO

DITRANS-SIGNO                           OBL-TRANS-SIGN

[CAT: ditrans-cat                             [CAT: [RES: strict-intrans-cat

 SEM: obl-trans/ditrans-sem ]                                ACT: [np-sign

                                                                                             CAT: np[p-case]]]

                                                                    SEM: intrans-obl-sem]

Los argumentos subcategorizados se posicionan en la estructura de categorías de predicados de acuerdo a la jerarquía oblicua. Por ejemplo, el argumento del sentido “meta” de ditransitivos y de transitivos que subcategorizan un grupo preposicional (DITRANS-SIGNO y OBL-TRANS-SIGN), es el signo extremo en la estructura de categorías, aunque solamente en los ditransitivos le precede el objeto “tema”. La diferencia en el orden de palabras se maneja sintácticamente (Sanfilippo, 1993).

Este formalismo emplea categorías de control para describir la estructura sintáctica de los verbos equi y de ascensión. Crea un modelo donde la marca de reentrancia dice que el signo activo del complemento (por ejemplo, un complemento sujeto) se controla por el signo activo inmediatamente precedente. Todas las categorías de control heredan este modelo. El control se expresa mediante entidades que se igualan y que parcialmente describen la semántica de los signos activos. El argumento controlador puede ser el sujeto o el objeto, según si el verbo es transitivo o intransitivo. La transitividad está determinada por la presencia de un signo-np acusativo activo. Las categorías reales de control se construyen agregando más especializaciones a las descripciones de control básicas.

En cuanto al trato del sujeto de verbos de extraposición, la CG emplea adicionalmente una entidad sin contenido, dummy, para la caracterización semántica de grupos nominales pleonásticos.

2.4.1.5 Subcategorización en HPSG

En la HPSG existe una característica especial para la información de la subcategorización de los signos, la característica sintáctica local SUBCAT. En la característica SUBCAT se codifican las diversas dependencias entre un núcleo-h y sus complementos. Es de notar que, a diferencia de otros formalismos, en la HPSG se incluyen los sujetos como especificadores.

SUBCAT tiene como valor una lista de synsems (parcialmente especificados). Como se mencionó en la sección HPSG, los synsems tienen como valor local a CATEGORY y a CONTENT. El atributo CATEGORY de un signo contiene información de su POS, requerimientos de subcategorización y marcadores posibles. El atributo CONTENT provee información de su estructura de argumentos. Así que los signos léxicos pueden ejercer restricciones en la selección y manejo de la categoría tanto como en la asignación de papel y caso.

El Principio de Subcategorización en la HPSG, que es un principio de la gramática universal, maneja el flujo (ascendente en la estructura sintáctica) de la información de subcategorización de las trayectorias de proyección. Este principio se expresa en términos de un valor en forma de lista:

DAUGHTERS | HEAD-DAUGHTER | SYNSEM | LOCAL | CATEGORY | SUBCAT,

esta lista se obtiene, a su vez, de la concatenación de los valores lista de SYNSEM y de DAUGHTERS (ver sección -HPSG).

El Principio de subcategorización establece, de forma general, que el valor SUBCAT de una frase es el valor SUBCAT del núcleo-h del lexema, menos las especificaciones ya satisfechas por algún constituyente en la frase. La versión más reciente de HPSG (Sag y Wasow, 1999) separa en dos características, SUJ y COMPLS, la característica inicial SUBCAT (Pollard y Sag, 1987, 1994) para separar el sujeto de los complementos restantes.

En la HPSG la subcategorización se basa en la definición de la estructura de argumentos y en cómo se relacionan los roles con los objetos sintácticos (sujeto, objeto, etc.), en la jerarquía de esos objetos sintácticos, en la diferente selección de las categorías de los argumentos, y en las características morfosintácticas de esas categorías. En la HPSG, la asignación de roles es la conexión entre los constituyentes de una expresión y los constituyentes que están presentes en la situación descrita. Por ejemplo, la entrada léxica para un verbo ditransitivo, como dar, asigna papeles semánticos a sus dependientes subcategorizados.

En la lista SUBCAT se numeran las variables asociadas con los objetos sintácticos, éstos unifican con las variables correspondientes de los roles en la descripción CONTENT. La jerarquía de objetos sintácticos se muestra en la lista SUBCAT, donde el sujeto es el primer elemento, el primer objeto es el segundo elemento, y el tercer elemento es el segundo objeto, como en la frase Juan da un libro a María. Cada uno unifica con su correspondiente papel: el sujeto unifica con el donador, el primer objeto unifica con el objeto dado, y el segundo objeto unifica con el receptor. Nótese en este ejemplo que la posición de los constituyentes en SUBCAT es primordial para identificar a cada uno con su rol semántico.

Como se observa del ejemplo anterior, la concepción jerárquica de los objetos sintácticos es esencial. A excepción del sujeto, que tiene su propia lista de características, los otros objetos sintácticos se definen en términos del orden de la jerarquía, que corresponde a la noción gramatical tradicional de sesgadura de objetos sintácticos, con elementos más oblicuos que ocurren más a la izquierda. Los razonamientos para la teoría jerárquica de objetos sintácticos se basan en cuatro clases diferentes de generalizaciones lingüísticas:

        En el orden de constituyentes. En muchos, pero no en todos los lenguajes, el orden superficial de constituyentes y sus objetos sintácticos parecen estar sujetos a restricciones mutuas. Como en el inglés, nótese que en el ejemplo anterior el sujeto y los dos complementos se describen igual en SUBCAT, con grupos nominales, y solamente el orden estricto permite identificar cada uno de ellos.

        Que involucran la teoría de control. Los complementos controlados encuentran su controlador en un argumento simultáneo menos oblicuo.

        Sobre el ligamento de pronombres y reflexivos. Las relaciones comando-o (de oblicuo, para establecer la teoría de ligamento en la HPSG) se expresan en términos de jerarquía oblicua.

        Sobre el funcionamiento de reglas léxicas. Por ejemplo, la conversión a pasiva puede promover un último o un penúltimo grupo nominal a una posición de sujeto.

En la HPSG se consideró el hecho de que las dependencias léxicas inciden de manera crucial en la selección de categoría. Existen restricciones de subcategorización que no pueden reducirse a distinciones semánticas o funcionales. En los ejemplos siguientes se muestran verbos cuyos sentidos están muy cercanos, pero imponen restricciones específicas diferentes sobre la categoría sintáctica de sus argumentos:

Rosalba confía en Rodolfo / *Rosalba se confía de Rodolfo

Rosalba se fía de Rodolfo / *Rosalba se fía en Rodolfo

Los verbos de tener confianza como confiar y fiarse, tienen estructuras de argumentos similares pero muestran una selección diferente de preposición, como es el caso de los verbos ingleses trust y rely: el primero subcategoriza a un GN y el segundo a un GP. Puesto que la selección de categoría y de preposición introductora se realizan en la lista de especificaciones SUBCAT, la descripción SUBCAT será diferente en cada caso dentro de MAJ (núcleo-h MAJOR). Para el verbo trust se indica un grupo nominal:

trust: SUBCAT <...  SYNSEM|LOC|CAT|MAJ GN>

En el caso del verbo rely, y de los verbos españoles confiar y fiarse, SUBCAT no solamente especifica la categoría de su complemento como preposicional, sino que también exige la preposición específica, que para confiar es en:

confiar: SUBCAT <... SYNSEM|LOC|CAT[MAJ P, PFORM en]>

La subcategorización se basa también en ciertas características morfosintácticas, como la forma verbal, el caso, etc. Por ejemplo, algunos verbos ingleses como make y force seleccionan diferentes formas verbales, finita e infinitiva.

Pat made Kim throw up. / *Pat made Kim to throw up.

Pat forced Kim to throw up. / *Pat forced Kim throw up.

Esta realización se define también en COMPLS, indicando la forma de inflexión requerida mediante la característica VFORM (ver la figura 12). La descripción del verbo force difiere de la anterior en que en lugar de tener VP[base], tiene VP[inf]. En español las construcciones no son tan directas, se emplean otras palabras introductoras como preposiciones y conjunciones. Por ejemplo: Rosalba obligó a Arturo a estudiar y Rosalba logró que Arturo estudiara.

Figura 12. Descripción del verbo make

Otra característica del núcleo-h como CASE se emplea para lograr una definición similar en lenguajes con inflexiones de caso, donde algunos verbos semánticamente próximos pueden requerir objetos en casos diferentes.

El Principio de Característica del núcleo-h, que filtra las características del núcleo-h de un nodo hija al nodo madre, establece que siempre que una forma léxica selecciona un complemento de frase especificado como SYN | LOC | HEAD | CASE ACC o como SYN | LOC | HEAD | CASE NOM, el núcleo-h léxico de ese complemento se especifica de la misma manera. Una situación análoga es el manejo de la preposición particular que rige una frase preposicional en lenguajes que carecen de inflexión de caso.

Otro punto importante considerado en la subcategorización es el manejo de preposiciones. HPSG enfatiza el hecho de que el empleo de preposiciones particulares no es predecible semánticamente. Por lo que diferentes verbos que requieren complementos realizados con frases preposicionales requieren valores diferentes para la característica del núcleo-h PFORM en ese complemento. Por ejemplo, los verbos destinar, emplear y usar asignan roles correspondientes a complementos introducidos con diferentes preposiciones.

El director destinó un millón de pesos a la biblioteca.

El director empleó un millón de pesos en la biblioteca.

El director usó un millón de pesos para la biblioteca.

Por último, en la HPSG se realiza un trabajo importante para describir los verbos de control y de ascensión. Estos verbos tienen como complemento un grupo verbal y el sujeto de este grupo está identificado con un argumento del verbo. La diferencia entre estas construcciones se describe en las entradas léxicas.

        En los verbos equi todos los dependientes subcategorizados tienen asignado un rol semántico. Por ejemplo, un verbo equi como try subcategoriza un sujeto tipo grupo nominal y un complemento tipo grupo verbal.

        En los verbos de ascensión un dependiente subcategorizado no tiene asignado un rol semántico. La identificación de dependiente no se hace compartiendo la estructura de índices sino compartiendo la estructura del synsem completo del dependiente.

Por ejemplo, el verbo intentar asigna el rol de “quien intenta” al sujeto, mediante el índice referencial correspondiente, y el valor CONTENT de su complemento VP al argumento psoa (parameterised state of affairs). El índice del sujeto también está en la estructura compartida con el sujeto del complemento de tipo VP, en la lista SUBCAT.

Una frase como Juan intenta correr tendría la siguiente descripción, donde el rol del sujeto del verbo en infinitivo se indica en psoa del verbo intentar:

En los verbos de ascensión, que aceptan todo tipo de sujeto, se omite la categoría y no se comparte la estructura del sujeto, por lo que no está asignado a un papel en la matriz psoa. Entonces, la lista SUBCAT especifica del synsem completo de su sujeto es la estructura compartida con el synsem de su complemento subcategorizado tipo grupo verbal.

2.4.2       Valencias sintácticas en gramáticas de dependencias

2.4.2.1 Valencias Sintácticas en DUG

En los árboles de dependencias cada nodo representa un segmento elemental (una categoría terminal), por lo que los nodos están típicamente marcados por lexemas. En la DUG, donde no se consideran etiquetas en los enlaces, se prefiere una representación en línea en lugar del árbol, así que por ejemplo, la frase El niño pequeño atrapó una lagartija, puede representarse en la siguiente forma:

[atrapar [niño [el] [pequeño] ] [lagartija [una] ] ]

Esta es una forma equivalente a una estructura jerárquica. En este tipo de representación, DUG, a diferencia de otras gramáticas de dependencias, incluye las categorías de POS a las marcas de los nodos, por ejemplo:

[V atrapar [N niño [Det el] [ADJ pequeño]] [N lagartija [Det una]]]

donde Det significa determinante y ADJ adjetivo. En la misma forma y combinando categorías funcionales y morfosintácticas DUG introduce ambas categorías en la representación, por ejemplo:

[PRED atrapar V

     [SUJ niño N [DET el Det] [ATR pequeño Adj] ]

     [OBJD lagartija N [DET una Det] ] ]

donde PRED es predicado, ATR es atributo, DET es determinante y OBJD es objeto directo. El orden de palabras, que es importante para el inglés, se describe en DUG mediante un marcaje adicional. Usa el símbolo ‘<’ para denotar a la izquierda del núcleo-h, y ‘>’ para denotar a la derecha del núcleo-h, de esta forma se describe que el sujeto está a la izquierda del verbo y el objeto directo a la derecha:

[PRED atrapar V

     [< SUJ niño N [DET el Det] [ATR pequeño Adj] ]

     [> OBJD lagartija N [DET una Det] ] ]

En la DUG se combina la noción de estructura de frase con la de dependencias, ya que considera las dependencias como una relación de palabra a complemento, en lugar de una relación de palabra a palabra, donde un complemento puede consistir de muchas palabras. Es por esta razón que incluye las categorías gramaticales. Por ejemplo, el constituyente el niño pequeño es el sujeto del verbo atrapar en los ejemplos anteriores.

La DUG considera que internamente cualquier frase se estructura de acuerdo a las relaciones de palabra a complemento, y que se representa como tal. Por lo que, aunque todos los nodos hoja en un árbol de dependencias corresponden a elementos terminales, en la DUG los nodos interiores pueden ser no-terminales. Sin embargo, una relación de dependencias solamente existe entre una palabra en el nodo dominador y las frases enteras representadas por el subárbol dependiente. Los nodos en el árbol de dependencias tienen las siguientes características:

        Hay un orden de secuencia entre los dependientes del mismo núcleo-h, igual que en la GPSG.

        Los nodos en el árbol representan unidades función-lexema-forma (función sintagmática, significado léxico, características morfosintácticas)

        Los nodos tienen etiquetas múltiples, por ejemplo, numero[singular], género[masculino], no pueden ser estructuras.

        Cada nodo hoja en el árbol corresponde a un terminal y cada subárbol corresponde a un no-terminal.

Un ejemplo se presenta con la frase Arturo presenció la riña estudiantil con la siguiente representación del analizador sintáctico, donde omitimos la posición de cada palabra de la frase:

 (ILLOC: postulado’: sign

 (< PROPOS: presenciar pasado’: verbo forma[finita] persona[él, 3, sing]

    (<SUBJECT: Arturo: sustantivo persona[él,NP,sing] determinado[+, NP])

      (>DIR_OBJ1: riña: sustantivo persona[3, sing] determinado[+,C]

       (DETER: definido’: artículo determinado[+,D] (referencia[definido,sing])

            (<ATTR_NOM: estudiantil: adjetivo determinado[-] ))));

En la representación anterior, sin entrar en detalles, se muestra un árbol de dependencias con seis nodos, un nodo para cada palabra de la frase más el nodo raíz que corresponde a la oración. El punto origina el postulado’ inicial, por lo que el nodo raíz corresponde a la oración, como en el enfoque de constituyentes. Cada nodo lleva tres tipos de información:

        Una función sintáctica, como sujeto SUBJECT, primer objeto DIR_OBJ1, determinante DETER, etc.

        Un lexema, como: presenciar pasado’, Arturo, riña, definido’, estudiantil

        Un conjunto de características morfosintácticas; la primera característica es la categoría gramatical, como artículo, adjetivo, etc.

El árbol de dependencias se construye a partir de la información contenida en tres diccionarios: un diccionario morfosintáctico, un conjunto de patrones de valencias y un diccionario de valencias.

El diccionario morfosintáctico relaciona cada forma de palabra a un lexema y a una categoría morfosintáctica compleja.

Los patrones de valencia contienen los fragmentos de un árbol de dependencia, generalmente correspondientes a un rector y un dependiente. Describen relaciones sintagmáticas específicas, entre el nodo del núcleo-h y su nodo dependiente (denominado ranura, slot, en inglés), por ejemplo, la relación entre un verbo y su sujeto. En estos patrones se describe la capacidad de combinación de las palabras, en las ranuras se acomodan los elementos en su contexto. Cada patrón caracteriza la for­ma morfosintáctica del núcleo-h, la función sintáctica del dependiente y la forma morfosintáctica del dependiente. También las selecciones léxicas pueden especificarse en una ranura cuando se requiere.

El diccionario de valencias consiste de referencias. Una referencia asigna un patrón o un conjunto de patrones al elemento léxico, de esta forma se implementa la subcategorización, que describe la capacidad de combinación del elemento. Existen tres tipos de referencias de acuerdo a las posibles funciones de los patrones: complementos, adjuntos y conjunciones.

Para el ejemplo anterior, se tienen los siguientes patrones:

(ILLOC: +postulado: signo

(<PROPOS :=: verbo forma[finita] s_type[postulado]));

(*:+subject: verbo forma[finita,indicativo] s_type[postulado, relativo]

(<SUBJECT:=: sustantivo persona[NP] determinado[+] ));

(*:+dir_obj1:verbo obj_number[singular] modo[activo]

(>DIR_OBJ1:=: sustantivo persona[1,2,3,sing,plural] determinado[+] ));

(*: %dete_count_any: sustantivo count[+]

(<DETER: determinante determinado[D] ));

(*: %attr_nominal: adjetivo

            (<ATTR_NOM: adjetivo determinado[-] ));

Las referencias que se emplearon para enlazar los elementos léxicos en la frase del ejemplo con los patrones anteriores son las siguientes:

(:COMPLEMENTS (*:postulado': signo) (: +propos));

(:COMPLEMENTS(*:presenciar:verbo)(&(:+subject)(:+dir_obj1)));

(:ADJUNCT (*:definido: determinante) (: %dete_count_any));

(:ADJUNCT (*: estudiantil: adjetivo) (: %attr_nominal));

En la DUG se separan totalmente los complementos y los adjuntos. Los complementos son dependientes de un elemento léxico y son requeridos por la semántica combinatoria inherente a la palabra. Los adjuntos son circunstanciales, por ejemplo los adverbios. Mientras que un término está incompleto hasta que ha encontrado sus complementos, los adjuntos pueden agregarse al conjunto de dependientes de un término en una forma relativamente arbitraria. Mientras los complementos se especifican en el diccionario bajo el lema del término rector, es decir, en forma descendente, los patrones adjuntos se especifican en la entrada léxica de la palabra adjunta, definiendo el potencial de enlace del elemento léxico como un dependiente, es decir, en una forma ascendente.

Para describir las alternaciones sintácticas del verbo se acepta más de un patrón con el mismo nombre. Por ejemplo, entre los patrones de sujeto están los siguientes, que describen los sujetos en oraciones interrogativas:

 (*:+subject: verbo inicial[+] forma[finita, indicativo] s_type[pregunta]

        (>SUBJECT:=: sustantivo persona[NP] determinado[+]));

 (*:+subject:verbo forma[finita,indicativo]s_type[interrogativa, relativa]

            (<SUBJECT:=: pronombre pro_form[interrogativa],
relativa[C] persona[C] número[sing] caso[de sujeto]));

El primer patrón del sujeto describe el sujeto de ¿Presenció Arturo la riña estudiantil? y el segundo patrón considera la frase ¿Quién presenció la riña estudiantil? Ambos patrones están ya cubiertos por la referencia para presenciar en las referencias anteriores.

En la DUG, las estructuras de control y extraposición se manejan por asignación de patrones específicos a los verbos que dan origen a estas estructuras. DUG describe la estructura de argumento como un nivel de descripción sintáctica. No hay un orden de roles participantes, por lo que el sujeto se considera como un argumento más del verbo.

2.4.2.2 Valencias Sintácticas en la MTT

En los árboles de dependencias de la MTT (Mel’čuk, 1979) los arcos entre los nodos están etiquetados con relaciones sintácticas de superficie. Estas relaciones son dependientes del lenguaje y describen construcciones sintácticas particulares de lenguajes específicos. Entre estas relaciones, existen unas cuantas en las que el dependiente se denomina actuante sintáctico de superficie.

Los actuantes sintácticos de superficie de un verbo representan lo que en otros formalismos se conoce como los objetos sintácticos, es decir, su sujeto, sus objetos y sus complementos, pero únicamente relacionados al sentido inherente del lexema. Los actuantes corresponderían a los “complementos” de la DUG ya que contrastan con los circunstanciales (o adjuntos en la DUG). La línea divisoria entre ellos se marca de acuerdo a diversos criterios que se expondrán en otras secciones.

La construcción de la estructura sintáctica de superficie se realiza mediante tres tipos de reglas: 1) las reglas que transforman una relación sintáctica profunda en una relación sintáctica de superficie y viceversa; 2) las reglas que transforman una relación sintáctica de superficie en un nodo de la sintaxis profunda y viceversa; 3) las reglas que transforman una relación sintáctica profunda en un nodo de la sintaxis de superficie y viceversa. En Mel’čuk (1988) se presentan estas reglas con ejemplos para el inglés y el ruso.

En el primer tipo se expresan las relaciones sintácticas profundas mediante una relación sintáctica de superficie, por ejemplo, las predicativas, posesivas, modificativas, cuantitativas, etc. En el segundo tipo, un lexema profundo ficticio se expresa mediante una relación sintáctica de superficie, como la aproximativa-cuantitativa en el ruso. En el tercer tipo, una relación sintáctica profunda se expresa mediante una palabra función, por ejemplo, las preposicionales.

En la figura 13[21] presentamos el diagrama de la representación sintáctica de superficie para la frase Según sus propias palabras, el científico mexicano tiene la idea de que el país no invierte en desarrollar su ciencia básica.

En la MTT, las valencias sintácticas de los verbos —principalmente—, de los sustantivos, y de los adjetivos, se describen conforme a lo que se denomina Zona Sintáctica (Steele, 1990), con la ayuda de una tabla de Patrones de Rección sintáctica (PR). La descripción en esta zona corresponde al nivel de la representación sintáctica de superficie de la MTT, a la estructura sintáctica de superficie.

Existen otras tres estructuras en este nivel (la estructura comunicativa, la estructura anafórica y la estructura prosódica) que están más relacionadas con la representación sintáctica profunda. En la figura 13 se observan la estructura comunicativa, el tema y el rema. Con línea punteada se marcan las referencias concurrentes, correspondientes a la estructura anafórica; en este caso la prosodia se considera neutral. Las líneas completas marcan la estructura sintáctica de superficie.

En la tabla de PR de la zona sintáctica, que expresa la diátesis, se presenta la siguiente información:

        Correspondencia entre las valencias semánticas y sintácticas de la palabra encabezado.

        Todas las formas en que se realizan las valencias sintácticas.

        La indicación de obligatoriedad de la presencia de cada actuante, si es necesario.

Figura 13. Ejemplo de una representación sintáctica superficial

Así que cada PR es una colección completa de descripciones de todos los posibles objetos de una palabra específica (verbo, sustantivo o adjetivo), sin considerar su orden en la oración.

Después de la tabla de PR, en la zona sintáctica, se presentan dos secciones: restricciones y ejemplos. Las restricciones consideradas en los PR son de varios tipos: semánticas, sintácticas o morfológicas; en estas restricciones también se considera la compatibilidad entre valencias sintácticas. La sección de ejemplos cubre todas las posibilidades: ejemplos para cada actuante, ejemplos de todas las posibles combinaciones de actuantes y, finalmente, los ejemplos de combinaciones imposibles o indeseables, es decir, los órdenes permitidos y prohibidos de las diferentes palabras que se manejan.

La parte principal de la tabla de PR es la lista de valencias sintácticas de la palabra encabezado. Se enlistan de una manera arbitraria, pero se prefiere el orden de incremento en la oblicuidad: sujeto, objeto directo, objeto indirecto, etc. Cada encabezado usualmente impone cierto orden, por ejemplo, una entidad activa (sujeto) toma el primer lugar, después el objeto principal de la acción, después otro complemento (si existe), etc. También la forma de expresión del significado de la palabra encabezado influye en el orden. Esta expresión precede cada PR.

Otra información obligatoria en cada valencia sintáctica es la lista de todas las posibles formas de expresión de la valencia en los textos. El orden de opciones para una valencia dada es arbitrario, pero las opciones más frecuentes aparecen normalmente primero. Las opciones se expresan con símbolos de categorías gramaticales o palabras específicas.

A continuación presentamos dos descripciones para el vocablo enseñar, como una entrada del diccionario explicativo combinatorial, ejemplos para el inglés se presentan en Steele (1990) y para el francés en Mel’čuk et al. (1984, 1988). Para el vocablo teach, Steele (1990) presenta ocho descripciones.

        X, teniendo conocimiento y habilidades en Y, causa que Z de forma intencional y metódica aprenda Y1 [El profesor enseña historia a sus estudiantes]

        X contiene un postulado Y1, el cuál es parte de una teoría Y2, expuesta en X para la información de Z [El Capital nos enseña que podemos organizarnos socialmente]

Cada una de estas descripciones presenta un sentido atribuido al lexema. Cada sentido tiene una forma de realizar sintácticamente sus valencias. La descripción de la zona sintáctica del sentido 1) se presenta en el modelo anterior, terminando con un ejemplo.

De lo anterior se desprende que las descripciones propuestas están dirigidas al ser humano. Las entradas del diccionario combinatorio son exhaustivas, indicando todos los posibles sentidos atribuidos al vocablo y con las realizaciones sintácticas de las valencias. Las posibles combinaciones se muestran con ejemplos muy completos.

2.4.3       Convergencia de los dos enfoques

Antes de presentar la convergencia de los dos enfoques tratados, mostramos una comparación de los formalismos presentados en cuanto a implementación y descripción de dependencias lejanas. Aunque aquí hemos hablado de los formalismos más representativos en cada uno de ellos, existen otras variantes de los mismos, por lo que generalizamos los nombres de los formalismos.

Desde el punto de vista de implementación, los formalismos gramaticales tienen una importante influencia sobre la forma de representación de las frases, representaciones que son la base de todo el razonamiento posterior en los programas informáticos. Las gramáticas generativas son relativamente inadecuadas para este fin y no tuvieron aplicación real en la informática. De entre ellas, la GPSG es la extensión más interesante por su ambición al tratar los aspectos semánticos.

En la evolución de las gramáticas generativas, éstas se tuvieron que expandir para incluir la concordancia, y en algunas versiones se consideró la unificación de los rasgos. Una característica fundamental de las gramáticas funcionales, como la LFG, es que permiten integrar aspectos semánticos, en este sentido constituyeron uno de los ejes de investigación más importantes. Pusieron de relieve también la importancia primordial del léxico dentro de las descripciones lingüísticas.

Ninguno de los formalismos hasta ahora desarrollados abarca todos los fenómenos lingüísticos, es decir, no tiene una cobertura amplia del lenguaje. El fenómeno de dependencias lejanas motivó una cantidad significativa de investigación en los formalismos gramaticales. En la primera etapa de la gramática generativa se manejaron fuera de la CFG. La LFG y la GPSG propusieron métodos de capturar las dependencias con el formalismo de CFG, empleando rasgos o características. Otra línea ha intentado definir nuevos formalismos que sean más poderosos que la CFG y que puedan manejar dependencias lejanas, como las TAG.

La última tendencia consiste en formalismos más orientados hacia los mecanismos computacionales, como la HPSG, la CG, la DUG. Las dos primeras emplean información de subcategorización (tema de la siguiente sección) extensivamente, y haciéndolo simplifican de manera significativa la CFG a expensas de un diccionario más complicado. En la DUG, como en las gramáticas de dependencias, se definen todos los objetos de las palabras, por lo que los diccionarios son el elemento central ya que no se emplean reglas.

En la tabla 1 presentamos cómo se ha ido disminuyendo el número de reglas y transformaciones a expensas de la riqueza de información del diccionario y la aparición de restricciones e integración semántica. La marca “ü” denota existencia, la marca “—” denota ausencia, y las otras marcas indican movimientos de incremento y reducción.

Tabla 1. Evolución  de los formalismos sintácticos

 

Reglas
CFG

Transf.

Diccio-
nario

Restric-
ciones

Integra
semántica

Estructura
Múltiple

Estructura
Comuni-
cativa

GGT

ü

ü

ST

ü

ü

EST

ü

ü

ü

GB

ü

ü

ü

GPSG

ü-

ü

LFG

ü--

ü+

ü

ü

ü

ü

CG

ü--

ü++

ü

ü

HPSG

ü---

ü+++

ü

ü

ü

DUG

ü+++

ü

ü

MMT

ü+++

ü

ü

ü

ü

-         inicio de reducción                             +             concepción mejorada

--        reducción                                             ++           importante

---       casi eliminación                   +++         mayoría de la información

En los años setenta los términos lexicismo y lexicalismo se utilizaron para describir la idea de emplear reglas léxicas para capturar fenómenos que eran analizados previamente por medio de transformaciones. Por ejemplo, mediante una regla léxica se podía obtener, a partir de un verbo, una forma de adjetivo, de pelear obtener peleonero. Por lo que se establecía que las reglas sintácticas no debían hacer referencia a la composición interna morfológica. El lexicalismo ahora, en forma muy burda, puede considerarse como un intento por describir el lenguaje, que enfatiza el diccionario a expensas de las reglas gramaticales.

Resulta engañosa esta caracterización inicial, porque el lexicalismo cubre un rango amplio de aproximaciones y teorías que capturan este énfasis léxico en formas muy diferentes. Por ejemplo, dos enfoques principales son: que tanta información como sea posible acerca de la buena formación sintáctica esté establecida en el diccionario, y que las reglas sintácticas no deben manipular la estructura interna de las palabras.

El lexicalismo estricto para Sag y Wasow (1999) consiste en que las palabras, formadas de acuerdo a una teoría léxica independiente, son los átomos de la sintaxis, y su estructura interna es invisible a las restricciones sintácticas. Para él, el lexicalismo radical postula que todas las reglas gramaticales se ven como generalizaciones sobre el diccionario. El principio de lexicalismo estricto, para este autor, tiene su origen en el trabajo de Chomsky (1970), quien desafió los intentos previos para derivar nominalizaciones (por ejemplo, la compra de una pelota por el niño) a partir de cláusulas (por ejemplo, el niño compró una pelota) vía transformaciones sintácticas.

Aunque el lexicalismo originalmente se vio relacionado con la reducción de potencia y capacidad de las reglas transformacionales, actualmente se ve de una forma más general, relacionada con la reducción de la potencia y capacidad de las reglas sintácticas de cualquier clase, y, por lo tanto, con un énfasis mayor en los diccionarios.

Los formalismos de constituyentes en su evolución han ido modificando conceptos que los aproximan a las dependencias. La LFG mantuvo la representación de estructura de frase para representar la estructura sintáctica de superficie de una oración, pero tuvo que introducir la estructura funcional para exponer explícitamente los objetos sintácticos, lo que esencialmente es una especificación de relaciones de dependencia sobre el conjunto de lexemas de la oración que se describe.

La RG constituye una desviación decisiva de la estructura de frase hacia las dependencias, al establecer que los objetos sintácticos deben considerarse como nociones primitivas y deben figurar en las representaciones sintácticas. La relación gramatical como ser el sujeto de, o ser el objeto directo de es una clase de dependencia sintáctica.

La HPSG, en su última versión (Sag y Wasow, 1999) está formulada en términos de restricciones independientes del orden. Como heredera del enfoque de constituyentes incluye restricciones en sustitución de las transformaciones, pero se basa en la observación de la literatura sicolingüística reciente acerca de que el procesamiento lingüístico humano de la oración tiene una base léxica poderosa: las palabras tienen una información enorme, por lo que ciertas palabras clave tienen un papel de pivotes[22] en el procesamiento de las oraciones que las contienen Esta noción está presente en la MTT desde sus inicios. También la Word Grammar (Hudson 1984) y el Word Expert Parser (Small, 1987) proclaman esta base sicolingüista.

Esta observación modifica el concepto de estructura de frase en la HPSG, donde la noción de estructura de frase se construye alrededor del concepto núcleo-h léxico: una sola palabra cuya entrada en el diccionario especifica información que determina propiedades gramaticales cruciales de la frase que proyecta. Entre esas propiedades se incluye la información de POS (los sustantivos proyectan grupos nominales, los verbos proyectan oraciones, etc.) y relaciones de dependencias (todos los verbos requieren sujeto en el inglés, pero los verbos difieren sistemáticamente en la forma en que seleccionan complementos de objeto directo, complementos de cláusula, etc.) Esta noción y su similitud con la MTT se hará manifiesta en la siguiente sección dedicada a las valencias sintácticas.

El lexicalismo, a nuestro entender, representa la convergencia en los enfoques de constituyentes y de dependencias. Aunque las dependencias desde su origen le han dado una importancia primordial a las palabras y a las relaciones léxicas entre ellas, el enfoque de constituyentes vía el lexicalismo considera, en sus versiones más recientes (por ejemplo la última revisión a la HPSG), muchos de los conceptos de aquéllas.

2.4.4       Diccionarios para el análisis sintáctico

Las palabras de cada lenguaje natural se dividen en autónomas y auxiliares. Existen unos diccionarios especiales que explican el sentido de cada palabra autónoma. Se llaman diccionarios de la lengua o explicativos, y se dirigen a seres humanos. Los diccionarios para el análisis sintáctico requieren información de acuerdo al formalismo empleado.

En cuanto a gramáticas generativas, los marcos de subcategorización se emplean desde hace mucho tiempo (Boguraev et al., 1987), ya que son útiles para restringir el número de análisis generados por el analizador sintáctico, para la generación automática de texto y para el aprendizaje de lenguajes. Debido a esta utilidad, muchos esfuerzos manuales se han aplicado a su compilación para tareas de procesamiento lingüístico de textos por computadora, principalmente para el inglés: ALVEY (Boguraev et al., 1987) y COMLEX (Grishman et al., 1994).

La subcategorización se describe en diccionarios modernos, como COMLEX (Grishman et al., 1994), mediante la descripción de los constituyentes que lo forman, principalmente, y algunas otras características. En el desarrollo de este diccionario se emplearon las clasificaciones verbales de diversos diccionarios. Para ilustrar la estructura de las entradas presentamos tres ejemplos:

(verbo :orth “aceptar”           :subc ((gn)

                                                      (que-o)

                                                      (gn)))

(sust    :orth “aceptación”)

(verbo :orth “abstenerse”      :subc ((intr)

                                                      (gp :val (“de”)) ))

El primer símbolo (verbo, sust) marca la categoría gramatical o POS. La característica orth describe la forma de la palabra. Las palabras para las cuales se consideran sus complementos tienen la característica subc. Por ejemplo, para el verbo abstenerse se definen dos tipos de subcategorización, el nombre (intr, pp) corresponde al nombre del marco. Se observa la consideración de que algunos verbos pueden pertenecer a más de un tipo de subcategorización.

Cada tipo de complemento se define formalmente mediante un marco. Cada complemento se designa por los nombres de sus constituyentes, junto con unas pocas marcas para indicar casos especiales, como el fenómeno de control. El marco incluye la estructura de constituyentes (cs), la estructura gramatical (gs), una o más características (features) y uno o más ejemplos (ex). Por ejemplo:

(vp-frame  s     :cs ((o 2 : que-comp opcional))

                       :gs (:sujeto 1 : comp 2)

                       :ex “ellos aceptaron (que) era demasiado tarde”)

Donde los elementos de la estructura de constituyentes están indexados. En los campos de la estructura gramatical se indican estos índices, por ejemplo, el índice “1” se refiere al sujeto superficial del verbo. La “o” significa que es de tipo oración. Entre las características que se pueden definir, y que en este ejemplo no están presentes, se encuentran: sujeto de ascensión, sujeto control, etc.

De los ejemplos anteriores se deduce que en los marcos de subcategorización el orden de los complementos, generalmente, es fijo, y todos los complementos aparecen después del verbo. Por ejemplo, para el verbo abandonar, un marco de subcategorización es un grupo nominal seguido de una frase preposicional introducida por la preposición a, es decir, NP  GP(a). La permutación GP(a)  NP puede existir solamente si se expresa explícitamente con otro marco. Esta descripción es muy útil en inglés por su orden de palabras más estricto. En el español, este orden es más libre, por ejemplo, la frase expresó(V) sus ideas (NP) con palabras sencillas(GP) puede enunciarse de diferentes maneras: expresó(V) con palabras sencillas(GP) sus ideas(NP) o con palabras sencillas(GP) expresó(V) sus ideas (NP) son igualmente posibles, y esas permutaciones son muy usuales.

La información de subcategorización ha sido considerada en la mayoría de los formalismos gramaticales modernos. Inclusive se han llevado a cabo esfuerzos para estandarizar la información de subcategorización, principalmente por EAGLES (1996), pero realmente la información de subcategorización en los diccionarios prácticos se ha definido teniendo en cuenta el aspecto teórico del formalismo considerado o las necesidades requeridas en la aplicación para la cual fueron construidos, o ambos.

Los diccionarios prácticos para el procesamiento lingüístico de textos por computadora pueden ser más o menos prescriptivos, dependiendo de sus bases teóricas (formalismos en los que se basan) o del propósito de aplicación. Por ejemplo, considerando los diccionarios ILCLEX (Vanocchi et al., 1994), ACQUILEX (Sanfilippo, 1993), COMLEX (Grishman et al., 1994) y LDOCE (Procter, 1987) se observa lo siguiente:

1           El número de argumentos sólo se codifica explícitamente en ILCLEX (mediante una característica con valor numérico), en los demás se debe inferir.

2           La categoría sintáctica se indica en todos los diccionarios explícitamente, salvo en ACQUILEX. Éste sigue el formalismo de gramáticas categoriales, que especifica categorías simples y complejas, por lo que la categoría sintáctica se infiere.

3           Todos especifican requerimientos léxicos, por ejemplo la selección de una preposición particular para introducir complementos, aunque lo hacen con diferentes grados de granularidad.

4           La variación de marcos aparece explícitamente en todos, salvo en LDOCE, dónde se infiere. Pero varían considerablemente en la forma de codificarla y en el rango en que consideran este fenómeno. Por ejemplo, la opcionalidad de argumentos no siempre se trata como variación.

5           La estructura de roles semánticos sólo se marca en ACQUILEX.

Usualmente en los marcos de subcategorización el orden de los complementos es fijo y todos los complementos aparecen después del verbo. Esta descripción es especialmente útil para el inglés, por su orden de palabras más estricto, como hemos dicho. En español el orden de palabras es más libre, aunque no totalmente. Para lenguajes con un orden libre se estudian otras descripciones (Rambow y Joshi, 1992; Bozsahin, 1998). Aún cuando EAGLES (1996) tiene en cuenta varias lenguas europeas (el español entre ellas), en su trabajo de recomendaciones de normalización, no considera fundamental la información del orden lineal de los complementos. Sin embargo, explícitamente dice que en algunas lenguas las restricciones en la precedencia lineal pueden ser completamente necesarias.

En cuanto a gramáticas de dependencias, un rasgo muy importante de la MTM es que el diccionario computacional se propone como la estructura que contiene las explicaciones (definiciones lexicográficas) para palabras autónomas, y estas definiciones sirven como el medio para las transformaciones en el nivel semántico, así como para establecer las correspondencias entre las valencias semánticas y sintácticas. En la forma inicial, las definiciones se representan como una oración o un conjunto de oraciones en lenguaje natural. Los rasgos más importantes de las definiciones son:

        Las palabras usadas están libres de toda ambigüedad, es decir, son monosémicas. Puesto que las palabras comunes de los lenguajes frecuentemente tienen homónimos, se hace la selección y las marcas especiales.

        El sentido de muchas palabras, especialmente de verbos y sustantivos verbales, no puede definirse sin mencionar algunas entidades que hay que precisar en la situación específica. Estas entidades sirven como los papeles en las acciones que son reflejadas por los verbos correspondientes. Son justamente las valencias semánticas del verbo. En las definiciones lexicográficas, las valencias se representan como variables en las formulas algebraicas por letras X, Y, Z, W.

enseñar1

X teaches Y to Z = X, having knowledge of, or skills in, Y, causes Z intentionally and methodically to learn Y1

1 = X

2 = Y

3 = Z

1. N

1. N

1. a N

 

2. a Vinf

2. Pron

 

Obligatory

 

 

C1 + C2:              El profesor enseñó la teoría de la relatividad; La algoritmia enseña a mecanizar la intuición.

C1 + C2 + C3:       La maestra le enseñó a tocar el piano; La pianista enseñó las escalas a los principiantes; El Dr. Mel’čuk nos enseñó los fundamentos de su teoría; El delegado enseñó al personal a levantar las actas administrativas.

Ejemplos

El tlamatani, en su profesión de maestro, de muchas formas enseñaba el camino que había que seguirse, con su sabiduría iluminaba lo que está sobre la tierra. Enseñaba a sus discípulos a conocerse a sí mismos; con una metáfora se nos dice que, con tal propósito, “les ponía un espejo delante de sus rostros”.

 


        Debemos explicar el sentido de la palabra por sentidos de otras palabras que son más “simples” que la palabra bajo definición. No tenemos lugar para explicar cuál es esta simplicidad, sólo hacemos notar que el conjunto de todas las definiciones no debe contener círculos viciosos y debe conducir a sentidos elementales.

Las definiciones de clasificación son bastante comunes en los diccionarios de explicación orientados a los seres humanos. En primer lugar dan una noción de cuál es el género semántico (= superclase) para la noción bajo definición, y además añaden las propiedades específicas de esta especie (= subclase) que le distinguen de otras especies dentro de la misma clase.

Por ejemplo, la definición para arándano dice:

arándano es una baya comible de color azul o negruzco

Podemos representar esta fórmula de lenguaje natural con la fórmula lógica usando predicados ES_SUBCLASE(), AZUL(), NEGRUZCO() y COMIBLE ():

ES_SUBCLASE(arándano,baya) & COMIBLE(arándano) & (AZUL(arándano) Ú NEGRUSCO(arándano))

A su vez el predicado COMIBLE puede expresarse con COMER() e INSALUBRE() que se consideran más simples:

COMIBLE(x) º ~$persona INSALUBRE (COMER (persona, x), persona))

(Es comible x = No existe persona para la cual es insalubre comer x)

Las definiciones de unos predicados por otros son también bastante comunes. Si definimos soltero en una forma libre como

Soltero es un hombre adulto para quien no existe una mujer con la cual él esté casado

podemos expresar el predicado SOLTERO() con los predicados SEXO(), ADULTO() y CASADO():

SOLTERO(x) º  SEXO(x, masculino) & ADULTO(x) & ~$y (SEXO(y, femenino) & CASADO(x, y))

Este es el método de convertir las formulas libres de las definiciones en las fórmulas lógicas correspondientes. Pero el problema de seleccionar palabras sin homónimos y círculos viciosos en las fórmulas libres es bastante complejo. Al mismo tiempo, palabras de lenguajes extranjeros parecen más exentas de homonimia. Es por esto que preferimos las definiciones en inglés para la descripción de sentidos.

En ambos enfoques, constituyentes o dependencias, se requiere un gran esfuerzo manual para compilar la información sintáctica para los diccionarios requeridos en el análisis sintáctico automático. En el enfoque de dependencias ese esfuerzo es todavía mayor porque se realiza individualmenete para cada sentido de cada entrada en el diccionario.

2.4.5       Revisión de enfoques para la descripción de valencias sintácticas

En todos los formalismos descritos, las valencias sintácticas involucran tanto la estructura de los distintos argumentos como la función gramatical de cada uno de ellos. El número de argumentos y la descripción de la función gramatical que cada uno de los formalismos considera difieren, así como el nivel en que se representan.

La estructura de argumentos, es decir, los predicados y los argumentos asociados con los participantes, se define en el nivel sintáctico en la GB, en la GPSG, en la LFG, en la DUG, y en la MTT; en cambio en la HPSG y en la CG forma parte de la representación semántica de predicados.

Los participantes de la acción en todos los formalismos, con la excepción de la HPSG, la DUG y la MTT, se marcan con roles temáticos que no están motivados totalmente de manera semántica. En la HPSG, la DUG y la MTT se marcan los participantes específicos del significado de cada verbo o palabra de que se trate. Se hace clasificación de roles temáticos en la GB (externos e internos), en la LFG (una jerarquía temática universal) y en la CG (roles prototípicos de Dowty, aumentados). Esta clasificación determina la funcionalidad sintáctica de los participantes.

Por la importancia de la selección semántica en la subcategorización, formalismos como la GB o la LFG, que no incluyen un nivel de representación semántica, proveen un nivel de descripción lingüística que expresa la estructura semántica de los objetos de los predicados en términos sintácticos.

Mientras que en la DUG y en la MTT los objetos sintácticos se expresan léxicamente y se ven como primitivas, en los demás formalismos los objetos sintácticos se ven como enlaces entre constituyentes seleccionados sintácticamente y los roles semánticos. A excepción de la GB que sitúa esta información en la estructura sintáctica, los demás formalismos la colocan en el diccionario.

La especificación de los objetos sintácticos se hace en la GB como relaciones de predicación y rección; en la LFG la especificación se hace mediante los principios de mapeo léxico, que rige el enlace de roles-q a las características de las funciones gramaticales primitivas en formas léxicas. En la HPSG y la CG los argumentos se clasifican sintácticamente de acuerdo a la jerarquía oblicua. En la MTT y en la DUG no se define una jerarquía, y aunque se puede emplear el orden en la oblicuidad, existen otros factores a considerar, como el orden de los actuantes en el sentido del lexema.

De entre estos formalismos solamente la LFG y la MTT consideran la estructura de información o comunicativa, en la primera con el foco y tópico, y en la segunda con el tema y el rema. La estructura de información ha sido un problema en el enfoque de constituyentes, porque a menudo las unidades de información no coinciden con las unidades establecidas por la estructura de frase.


Capítulo 3   Las valencias sintácticas en el análisis del español


En este capítulo* presentamos la caracterización de la estructura de valencias sintácticas con énfasis especial en las particularidades del español. Desarrollamos las características que se necesitan describir, presentamos estas características y sus valores para verbos y otras partes de la oración. Esta caracterización consiste finalmente en la elaboración de las herramientas de la MTT para el análisis sintáctico del español, es decir, el desarrollo de los patrones de rección sintáctica para verbos —principalmente—, y también para sustantivos y adjetivos de este lenguaje.

El problema de la caracterización es un problema de la lingüística general, pero aquí lo consideramos más formalmente desde el punto de vista computacional. Se requieren términos y estructuras adecuadas para la descripción de los fenómenos lingüísticos. Las herramientas desarrolladas en la lingüística general se dirigen a los seres humanos, no a las computadoras, por lo que se tiene libertad para seleccionar medios semiformales. En la mayoría de los casos tomamos las estructuras usadas en la MTT. En el siguiente capítulo mencionaremos otras maneras de descripción casi formal para enseguida presentar la comparación entre ellas.

3.1          Peculiaridades sintácticas del español

Existen características dependientes del lenguaje que simplifican o vuelven más compleja la relación entre los grupos de palabras. Reconocer las combinaciones posibles de los verbos y sus complementos es menos complejo cuando en el lenguaje existen posiciones fijas de ocurrencia de ellos. Sin embargo esto varía, la estructura de la oración en diferentes lenguajes tiene diversos órdenes básicos y diferentes grados de libertad en el orden de palabras. Por ejemplo, el inglés y el español tienen un orden básico sujeto-verbo-complemento (SVC).

Esto no quiere decir que siempre se cumpla ese orden. Algunos lenguajes, como el inglés, tienen un orden más estricto, otros, como el español, tienen un grado de libertad mayor. Por ejemplo, la oración en español Juan vino a mi casa (SVC) se acepta sintácticamente en las siguientes variantes: A mi casa vino Juan (CVS), Vino Juan a mi casa (VSC), A mi casa Juan vino (CSV), Juan a mi casa vino (SCV), Vino a mi casa Juan (VCS), por lo que los participantes de las acciones pueden ocurrir en distintas posiciones respecto al verbo.

En español, al igual que en algunos otros lenguajes, el uso de las preposiciones es muy amplio. Este empleo origina una gran cantidad de combinaciones de grupos preposicionales, pero también sirve para diferenciar, en muchos casos, la introducción de los participantes de una acción. Por ejemplo, en la frase Compró el niño un libro en diez pesos, los hablantes nativos reconocen que se utiliza la preposición en para introducir la expresión del precio del artículo comprado.

En español, el uso de preposiciones permite introducir sustantivos animados en el papel sintáctico de objeto directo, distinguir entre significados de verbos, distinguir participantes. Realmente, la preposición a, entre otros usos, sirve para diferenciar el significado del complemento directo de algunos verbos, por ejemplo, querer algo (tener el deseo de obtener algo) y querer a alguien (amar o estimar a alguien). Si este conocimiento se omite en el nivel sintáctico, entonces el análisis en el nivel semántico se vuelve más complejo. Esta información también es útil en la generación de lenguaje natural, porque dado el sentido que se quiere transmitir existe la posibilidad de seleccionar la estructura precisa para él.

Otra peculiaridad del español es la repetición restringida de valencias. Por ejemplo, en la frase: Arturo le dio la manzana a Víctor, dónde le se emplea para establecer a quién le dieron la manzana y el grupo preposicional a Víctor también representa al mismo participante. Otro ejemplo es: El disfraz de Arturo lo diseñó Víctor, donde tanto lo como el disfraz de Arturo corresponden al objeto directo de diseñar. Esta repetición se da en forma de pronombres y sustantivos. Las implicaciones léxicas y sintácticas en cuanto a que algunos verbos presentan estas estructuras, a que se deben relacionar las dos expresiones de valencias sintácticas con la misma valencia semántica, y a posibles diferencias semánticas, competen al análisis sintáctico.

3.2          Diversidad numérica de valencias

En los patrones de rección sintáctico se describen todas las valencias de los verbos de acuerdo a su significado. En el español existen verbos con 0 valencias sintácticas y hasta con 5, en general. Sin embargo, la mayoría de los verbos en español caen en el rango de 1 a 3 valencias. Algunas estadísticas acerca del número de valencias se presentaron en Galicia et al. (1998).

Comenzamos la explicación informal de los patrones de rección, en el español, presentando en la tabla 2 algunos ejemplos de oraciones cuyos verbos tienen diferente número de valencias. Los números entre paréntesis indican las valencias semánticas y preceden a la correspondiente realización sintáctica.

Aunque en la literatura que trata temas de constituyentes se denomina alternación a la posibilidad de un verbo dado para aparecer en más de un tipo diferente de marco de subcategorización —que pueden relacionarse uno a otro a través de un conjunto limitado de relaciones de mapeo—, nosotros la denominamos variación, ya que el término alternación se ha empleado principalmente como una noción morfológica (Alarcos, 1984). Ejemplos bien conocidos de estas variaciones son las siguientes:

        Existencia versus ausencia de objeto directo del verbo (su uso transitivo versus intransitivo). Por ejemplo Juan comió un taco y Juan comió.

Tabla 2. Verbos con diferente número de valencias

Número de
valencias

Ejemplos

0

Llueve.

1

(1) Juan duerme.

2

(1) Juan mira (2) las montañas.

3

(1) Juan acuerda (2) el proyecto (3) con su jefe.

4

(1) Juan compra (2) un vestido (3) en la tienda (4) en 500 pesos.

5

(1) Juan renta (2) un departamento (3) a María (4) por un año (5) en 500 pesos.

        Agentiva versus instrumental. Por ejemplo: Juan quebró el florero con el martillo y El martillo quebró el florero. En el primer caso martillo es un instrumento, mientras que en el segundo, su función corresponde al agente que realiza la acción.

        Inversión. Por ejemplo: Juan cargó la paja en la carreta y Juan cargó la carreta con paja.

Mucho se ha escrito acerca de estas variaciones. Atkins et al.  (1986) investigaron el rango de variaciones entre formas transitivas e intransitivas de verbos. Levin (1993) y Levin y Rappoport (1991) exploran las relaciones entre el significado y las posibilidades de subcategorización para unos cuantos verbos, y sus agrupamientos relacionados. Kilgarriff (1993) generaliza el comportamiento de las variaciones en clases de verbos. Todos estos estudios consideran la clasificación de verbos, es decir, que se pueden agrupar diferentes verbos que presentan los mismos fenómenos sintácticos y que por lo tanto pueden analizarse de igual forma.

La clasificación de verbos se ha realizado desde diferentes perspectivas. En cuanto a estructura sintáctica se ha realizado considerando el tipo de complementos que son compartidos por diferentes verbos. Por ejemplo, en una forma simple, considerando el grupo de verbos transitivos cuyo objeto directo es un grupo nominal, o cuyo objeto directo es una frase preposicional, etc. Kilgarriff (1992) presenta una clasificación de verbos más compleja, basada en conceptos semánticos y sintácticos en el nivel más alto de la jerarquía y con verbos de cierto tipo específico en los niveles inferiores.

Sin embargo, como se vio en el capítulo 1, en las consideraciones de la HPSG, algunos verbos con sentidos similares presentan diferentes marcos de subcategorización, además, como se verá más adelante, verbos con sentidos similares presentan diferentes números de valencias. Por lo que las clasificaciones, en cuanto a caracterización de valencia sintáctica y relación con la valencia semántica, no resulta ser la mejor forma de presentación.

En los patrones de rección, a diferencia de este tipo de clasificaciones, se describen individualmente las diferentes variaciones para cada verbo, lo que permite diferenciar las diferentes realizaciones sintácticas para cada verbo específico. En lugar de considerar diferentes grupos de variaciones, como las mencionadas arriba, se analiza y describe individualmente cada verbo. Por ejemplo, establecer que el verbo comer tiene una segunda valencia opcional que indica qué cosa se come.

Las clasificaciones mencionadas tienen la desventaja de no permitir esta diferencia, ya que al agrupar formas de subcategorización pueden quedar en clasificaciones diferentes las variaciones para un mismo verbo. Por ejemplo, el verbo cargar, tiene tanto la forma de subcategorización GN GP(en), la paja en la carreta, como GN GP(con), la carreta con paja, que denotan la inversión de los actuantes semánticos en el nivel sintáctico. Tampoco es posible apoyarse en esa clasificación para separar verbos homónimos cuando se detectan diferentes sentidos.

Al describir individualmente las diferentes valencias sintácticas de los verbos, se describe el sentido implícito en las diversas construcciones. Para comparar con los roles semánticos presentamos el ejemplo clásico de quebrar, que se describe en los siguientes ejemplos de Allen (1995):

Juan quebró la ventana con el martillo.

El martillo quebró la ventana.

La ventana se quebró.

La tercera frase corresponde a la traducción del inglés de The window broke. Desde la perspectiva de roles temáticos, Juan es el actor (el papel del agente), la ventana es el objeto (el papel de tema) y el martillo es el instrumento (el papel de instrumento) usado en el acto de quebrar. La idea en los roles temáticos es generalizar los posibles participantes.

Desde el punto de vista de los actuantes semánticos, el sentido implicado requiere diferenciarse:

        En la oración Juan quebró la ventana con un martillo, una entidad animada utiliza un objeto para separar en dos o más partes otro objeto, con un fin determinado. Así que en la frase Juan quebró la ventana, está ausente el instrumento, que pudiera ser incluso su mismo cuerpo.

        En la oración El martillo quebró la ventana, un objeto separó en dos o más partes otro objeto; sin la participación de una entidad animada con un propósito específico.

        En la tercera oración La ventana se quebró, es una variante de se quebró la ventana, que indica la ausencia del objeto que separó en dos o más partes la ventana.

De lo anterior se desprende que el número de valencias sintácticas resulta de determinados rasgos semánticos que deberán considerarse para caracterizar los verbos específicos.

3.3          Patrones de rección

3.3.1       Verbos

Aunque en los ejemplos de verbos que presentamos a continuación mencionamos la clasificación usual de transitivos e intransitivos, también indicamos las diferencias que las valencias presentan.

Para todos los verbos del español en modo activo, la primera valencia o primer actuante es el sujeto gramatical de la oración, como se considera en la gramática clásica, y en forma simple se denomina sujeto[23]. Para muchos verbos, las características sintácticas del sujeto lo definen como un sustantivo animado. En la sección 3.4 daremos detalladamente las consideraciones de animidad en el español. Entonces, la lista de características sintácticas para el sujeto de esos verbos es (S, an), donde S indica sustantivo, y puesto que la marca de animidad sólo se da en sustantivos, esa lista podría simplificarse a (an).

La mayor parte de la información del sujeto en las oraciones en español es común a casi todos los verbos, por lo que es mejor concentrarla en la gramática en lugar de situarla en los patrones de rección sintáctica. Así que la descripción del sujeto, en los patrones de rección sintáctica, normalmente se limitaría a la lista de índices léxico-semántico y semántico, como se verá en los ejemplos siguientes.

3.3.1.1 Verbos sin valencias

Los verbos españoles que no presentan ninguna valencia son los verbos que sólo se conjugan en tercera persona singular, como: llover, granizar, nevar. Solamente se considera su descripción:

llover

water falls to earth in drops

3.3.1.2 Verbos con una valencia

Algunos verbos españoles intransitivos tienen únicamente la valencia que corresponde al sujeto, por ejemplo el verbo cojear:

cojear

person or animal X walks lamely

1 = X;  quién cojea?

1.1   S                                       % el hombre ~

                                                % el gato ~

Por definición, los verbos intransitivos no pueden tener un complemento directo. Sin embargo, la ausencia del complemento directo es una peculiaridad puramente sintáctica. Los verbos intransitivos pueden tener otras valencias representadas mediante diversos complementos indirectos. Estas valencias, en el patrón de rección, se numeran usualmente en el orden de importancia de ellas.

En los diccionarios comunes la información de las propiedades sintácticas de los verbos intransitivos de los lenguajes naturales, como el español, no considera estos posibles complementos. En el análisis sintáctico de textos por computadora es esencial esta definición para reducir la ambigüedad sintáctica. Por ejemplo, el verbo perecer tiene una segunda valencia realizada sintácticamente mediante un complemento indirecto que expresa la causa de la acción.

perecer

X ceases to live because of Y

1 = X;  qué/ quién perece?

1.1   S                                       % el hombre ~

2 = Y;  de qué?

2.1   de S                                  % ~ de hambre

                                                % ~ de frío

Estos verbos intransitivos tienen más de una valencia semántica y, en términos rigurosos, no pertenecen al grupo bajo consideración. Para marcar que algunos verbos intransitivos pueden presentar otras valencias, algunos diccionarios como LDOCE (Procter et al., 1978) consideran la clasificación de intransitivos estrictos. Esta misma clasificación fue considerada en la descripción de subcategorización en las Gramáticas Categoriales (capítulo 1).

3.3.1.3 Verbos con dos valencias

Los verbos transitivos, por definición, tienen una segunda valencia semántica en el nivel sintáctico denominada objeto directo o complemento directo. En muchas lenguas europeas el complemento directo se une al verbo directamente, sin preposiciones. En español existen dos posibilidades para esta conexión. Los sustantivos inanimados (na) generalmente se unen directamente al verbo, en cambio, los sustantivos animados (an) usualmente se unen al verbo mediante la preposición a.

Una característica de los verbos transitivos es que el complemento directo es obligatorio. Por ejemplo, la frase *Juan quiere no es gramatical, requiere la indicación explícita de qué o a quién quiere Juan. Indicamos esta condición de obligatoriedad con el signo derecho de admiración (!) exactamente después de la fórmula de equivalencia entre valencias sintácticas y semánticas, por ejemplo: 2 = Y!;  de qué? Cuando la valencia no es obligatoria en el nivel sintáctico aparece únicamente el punto y coma.

A continuación presentamos un patrón de rección sintáctico para el verbo transitivo querer:

querer1

person X experiences positive feelings to person Y

1 = X; quién quiere?

1.1   (S, an)                               % el padre ~

2 = Y!; a quién?

2.1   a (S, an)                            % ~ a su hijo

3.3.1.4 Verbos con tres valencias.

Los verbos considerados en la gramática clásica como doble transitivos tienen tres valencias. La tercera valencia se denomina objeto indirecto o complemento indirecto. En el español, los complementos indirectos siempre están unidos al verbo mediante preposiciones, por lo que frecuentemente se les denomina objetos preposicionales. Por ejemplo, el verbo solicitar (aquí, C indica una cláusula subordinada):

solicitar

X asks something Y from Z

1 = X; quién solicita?

1.1   (S, an)                               % Juan / el gobierno ~

2 = Y!; qué solicita?

2.1   (S, na)                               % ~ una prórroga / un préstamo

2.2   que C                               % ~ que este libro se le dé

2.2   (V, inf)                              % ~ cancelar la autorización

3 = Z; de quién solicita?

3.1   a  (S, an)                           % ~ a la secretaria

3.2   con  (S, an)                       % ~ con el secretario

3.3   de  (S, an)                         % ~ de usted

En el ejemplo Juan solicita una prórroga al gobierno, la primera valencia es el sujeto y la segunda el complemento directo. Para este verbo, se observa que además de que el complemento directo es obligatorio (no es posible decir *Juan solicita al gobierno, sin indicar qué se solicita), existe un conjunto de preposiciones con las cuales la tercera valencia se une al verbo: a, con, y de (a diferencia de perecer donde la preposición de es la única que introduce la valencia).

La diferencia de significado de las frases solicita un pase con el secretario y solicita un pase al secretario no es de considerar, en la mayoría de los casos. Estas preposiciones no son sinónimas, su equivalencia está implicada en el verbo que las emplea. Otros verbos pueden usar un conjunto diferente de preposiciones para propósitos similares.

En la mayoría de los ejemplos previos las valencias se realizaron con sustantivos, pero las valencias pueden realizarse de formas diferentes. Por ejemplo, la segunda valencia del verbo solicitar, se puede realizar con que C.

3.3.1.5 Verbos con cuatro valencias

Otro ejemplo, el verbo condenar, muestra el caso de una preposición que introduce un verbo en infinitivo:

condenar

person X condemns person Y to Z for action W

1 = X;  quién condena?

1.1   (S, an)                               % el juez ~

2 = Y!;  a quién condena?

2.1   a (S, na)                            % ~ al acusado

3 = Z;  a qué?

3.1   a (S, na)                            % ~ a cadena perpetua

4 = W;  por cuál motivo?

4.1   por (S, na)                        % ~ por asesinato

4.2   por (V, inf)                       % ~ por matar

En este ejemplo, la cuarta valencia presenta una forma diferente de realización de las anteriores, con un verbo en infinitivo, además de la forma más común, mediante un sustantivo.

En la gramática española (Seco, 1972) se considera el hecho de que la forma del verbo refleja las distintas funciones que desempeña el núcleo de la oración; por ejemplo, cuando funciona como sustantivo, aparece en infinitivo. Para funcionar como adjetivo aparece en forma de participio, cuando funciona como adverbio, aparece como gerundio. Frecuencias de aparición de los distintos usos del infinitivo se encuentran en Luna-Traill (1991), Arjona-Iglesias (1991) y Moreno (1985).

Gili (1961) indica que mientras el francés desde el siglo XVI limitó mucho el número de infinitivos que pueden sustantivarse, el español ha conservado esta libertad, y además se sustantiva la forma reflexiva. También indica que otras lenguas como el francés, el alemán y el inglés, limitan el número de preposiciones que pueden unirse al infinitivo, o bien restringen las construcciones verbales y sustantivas a que pueden aplicarse. Por lo que el empleo amplio de las preposiciones con los verbos en infinitivo es una peculiaridad más del español.

El uso de preposiciones lleva aparejada ciertas dificultades. En algunos verbos, una frase preposicional describe tanto valencias del verbo como circunstancias. Por ejemplo, algunos verbos locativos (Rojas, 1988) requieren complementos con la noción de espacio, cuya marca aparece tanto en la palabra introductora del complemento como en el complemento mismo. Por ejemplo, con el verbo colocar:

colocar1

person X puts Y in place Z

1 = X; quién coloca?

1.1   (S, an)                               % el estudiante ~

2 = Y!; qué / a quién coloca?

2.1   (S, na)                               %  ~ los libros

3 = Z; dónde coloca?

3.1   en/sobre (S, na)                % ~ en el estante

3.2   (Adv, loc)                          % ~ aquí

En la frase coloca un libro en este momento en el espacio disponible, la frase preposicional en NP describe tanto una valencia (en el espacio libre) como un complemento (en este momento) que es circunstancial de tiempo. Por lo que se requiere un descriptor, como en el caso de animidad, que distinga estos casos. Entonces la tercera valencia se modifica a:

3 = Z; dónde coloca?

3.1   en (S, loc)                         % ~ en el estante

3.2   sobre (S, na)                     % ~ sobre la mesa

3.3   (Adv, loc)                          % ~ aquí

En donde loc indica sentido locativo del sustantivo.

3.3.1.6 Verbos con cinco valencias

Por último, presentamos un ejemplo, el verbo rentar que tiene cinco valencias:

rentar

person X uses the possession Y of the owner Z giving in return a quantityW by a period V

1 = X;  quién renta?

1.1   (S, an)                               % María ~

2 = Y!;  qué renta?

2.1   (S, na)                               % ~ un departamento

3 = Z;  a quién?

3.1   a (S, na)                            % ~ a la compañía Zeta

4 = W;  en cuanto?

4.1   en (S, na)                          % ~ en dos mil pesos

5 = W;  por qué período?

5.1   por S(tm)                          % ~ por mes

5.2   a S(tm)                             % ~ al mes

donde tm significa tiempo y se refiere a un sustantivo que denota intervalo de tiempo.

3.3.2       Adjetivos y sustantivos

Los adjetivos y los sustantivos difieren de los verbos en las valencias que presentan, específicamente en la primera valencia. En los adjetivos, la primera valencia semántica es el correspondiente sustantivo que el adjetivo modifica. Desde el punto de vista semántico, los adjetivos son lexemas predicativos que al menos tienen una valencia. El primer actuante es precisamente la palabra expresada mediante un sustantivo. En los verbos, la dirección de rección va del verbo al sujeto. En cambio en los adjetivos, la dirección de rección sintáctica es inversa, el arco de la relación sintáctica va del sustantivo al adjetivo. La razón es que el sustantivo es la palabra dominante y el adjetivo es la palabra dependiente.

El primer ejemplo que presentamos es un adjetivo homónimo: blanco. En español, existen al menos dos significados diferentes: blanco1 con sentido referido al color, y blanco2 con sentido referido a inocencia o pureza. Cada uno de estos homónimos tiene una sola valencia. Puesto que esta valencia no implica la correspondiente dependencia sintáctica, la fórmula 1 = X! tiene un carácter condicional y representa la llamada valencia pasiva. En este caso, la dependencia sintáctica (adjetivo de un sustantivo) es contraria a la dependencia semántica (sustantivo de adjetivo atributivo). Esta peculiaridad es inmanente a los adjetivos en muchos lenguajes, y desaparece al nivel semántico.

blanco1

physical object X is of white color

1 = X!

1.1   (S, <Phys-obj>)                  % la pintura ~

blanco2

narrative X is innocent or pure

1 = X!

1.1   (S, <Narr>)                       % chistes  ~

Como usualmente la diferencia entre los homónimos se manifiesta en los descriptores semánticos de cada opción, <Phys-obj> denota un objeto del mundo y <Narr> denota el elemento del texto.

Los descriptores pueden emplearse para la desambiguación de los homónimos, cuando los dominios que ambos abarcan no intersectan. Por ejemplo, en la frase, una pintura blanca, blanca sólo puede referirse al color. En cambio, en la frase, un libro blanco, hay duda del sentido asignado, el color del libro o su contenido.

Existen adjetivos con dos valencias. Por ejemplo, el adjetivo lleno, en el que la segunda valencia expresa el objeto preposicional con el significado de establecer qué contiene en toda o casi toda su capacidad.

lleno

object X is full of object Y

1 = X!

1.1   (S)                                    % el estadio ~

2 = Y; de qué?

2.1   de (S)                               % ~ de gente

El primer ejemplo que consideramos para los sustantivos es un sustantivo que no deriva de forma verbal:

presidente

person X is the highest official of country or organization Y

1 = X; quién?

1.1   (S, Propr)                          % ~ Adolfo López Mateos

2 = Y; de qué país u organización?

2.1   de (S, <Org>)                    % ~ de México, ~ del club

2.2   ¯A0(<Org>)                      % ~ mexicano

El parámetro <Propr> denota una palabra o secuencia de palabras que expresan un nombre de persona; <Org> denota una subclase semántica de sustantivos que expresan un nombre oficial de una organización, la cuál puede ser de tipo social, político o cualquier otro tipo e incluye nombres de países.

La opción 2.2 es muy específica. El signo ¯ indica que la información de esta opción, en el nivel sintáctico, no se expresa mediante dependencia de valencia sino por una de atribución, mientras que en un nivel más profundo la diferencia se elimina y la valencia semántica puede derivarse y representarse explícitamente. El término A0() es una función que deriva un adjetivo a partir del argumento, que es un sustantivo. Por ejemplo, A0(México) = mexicano, A0(España) = español, etc. En términos generales, esta opción presenta el ejemplo de una valencia semántica expresada por medio de otras dependencias sintácticas, ya que México y España son valencias semánticas.

Otro ejemplo con esta característica es el sustantivo conclusión, donde la opción 2.2 se expresa mediante adjetivo posesivo:

conclusión1

reasoned deduction or inference of person X on subject Y

1 = X; de qué persona?

1.1   de (S, <Person>)          % ~ del profesor

1.2   ¯ (Adj, poss)                % mi ~

2 = Y; sobre qué cosa?

2.1   sobre (S)                     % ~ sobre el proyecto

2.2   de que C                     % ~ de que el proyecto es...

2.3   de (S)                          % ~ de una serie de investigaciones

En este caso la marca de animidad se cambió por el descriptor semántico persona <Person>. En la mayoría de las ocasiones ambas etiquetas significan lo mismo, seres humanos. Pero la animidad se aplica también a entidades personificadas, como animales, grupos de personas, países, etc., y realmente el sentido es más estrecho en este caso, porque no es posible imaginar su uso en el ámbito extendido de personificación. Aunque por otro lado, en el mundo contemporáneo, una conclusión también puede realizarla un autómata que razone. El descriptor semántico corresponde al ámbito bastante estrecho de este caso particular. Puede ocurrir que el descriptor de este tipo no “funcione” correctamente en casos de métafora.

El último ejemplo que presentamos es el sustantivo querella, que generalmente no va acompañado de adjetivos.

querella1

complaint of person X against person Y on subject Z

X = 1; de quién?

1.1   de (S, an)                     % del vecino ~

1.2   ¯ (Adj, poss)                 % mi ~

Y = 2; contra quién?

2.1   contra (S, an)               % ~ contra quién resulte responsable

2.2   en contra de (S, an)     % ~ en contra de Juan

Z = 3; por qué?

3.1   por (S, na)                    % ~ por robo

3.2   por (V, inf)                   % ~ por defraudar

3.3   de (S, na)                      % ~ de robo

La segunda valencia sintáctica presenta una de las peculiaridades de muchos lenguajes modernos: se trata de una preposición compuesta. Además de las preposiciones comunes simples que registran los diccionarios como tales, existen numerosas locuciones preposicionales o locuciones prepositivas, en las cuales figuran normalmente un sustantivo o un adjetivo: alrededor de, encima de, dentro de, junto a, frente a, enfrente de, etc., y otras muchas que ocasionalmente pueden crearse para precisar la relación, a veces poco definida, de las preposiciones solas. De esta manera, y con la combinación de dos o más preposiciones, el español compensa el número relativamente escaso de preposiciones simples.

Algunas de estas locuciones prepositivas son casi del todo equivalentes a preposiciones simples, y en ocasiones más usadas que éstas: delante de (= ante), encima de (= sobre), debajo de (= bajo), detrás de (= tras). También el adverbio se suma a la función enlazadora aportada por la preposición, y la unión de las dos palabras se convierte en una nueva preposición: antes de, encima de.

Se forman nuevos conjuntos uniendo las preposiciones a otras preposiciones, dando lugar a complejos característicos del español, en los que la aglomeración de preposiciones expresa una gran variedad de relaciones. Por ejemplo: de entre ellos, de con sus amigos, desde por abajo, hasta con sus compañeros, para entre nosotros, por de pronto. A veces llegan a reunirse hasta tres preposiciones, por ejemplo: hasta de con sus compañeros fueron a buscarla; desde por entre los árboles nos espiaban. Estos grupos se consideran como una sola preposición introductora de realizaciones sintácticas en los patrones de rección.

3.4          Animidad

3.4.1       Dependencia del objeto directo en la animidad

En la mayoría de los lenguajes el objeto directo está conectado con el verbo directamente, sin preposiciones, es por esto precisamente que este objeto se denomina directo. Por el contrario, en español las entidades animadas están conectadas a su verbo rector con la preposición a (veo a mi vecina) y las no animadas directamente (veo una casa). La animidad en español se considera como una personificación. Por ejemplo, gobierno en español es un sustantivo animado, y al dirigirse a él se utiliza la preposición a (condenó al gobierno). Además de personas, la animidad abarca grupos de animales, de personas, organizaciones, partidos políticos, países, etc.

En otros lenguajes, por ejemplo el ruso[24], también existe una categoría de animidad similar que determina la terminación del caso morfológico del complemento directo, pero los grupos de personas, los países, las ciudades no se personifican en sentido gramatical.

Entonces, la regla léxica del español es que el complemento directo está unido al verbo rector a través de la preposición a para entidades animadas y directamente en los otros casos. Su empleo es específico del español y lo distingue de otros lenguajes europeos. Pero la animidad en español realmente es aún más complicada, ya que en algunos contextos de indefinición o de conteo el complemento directo animado puede eliminar la necesidad de la preposición, por ejemplo: Vio un niño que corría; Necesita tres ayudantes. El contexto influye en algunos casos para incluir la conexión de objeto directo o eliminarla. Por ejemplo, un animal es animado en un ámbito de relación cercana al hablante: veo a mi perro adorado y es no animado en un ámbito de relación lejana: veo el perro que corre por la pradera.

Por el orden de palabras no estricto del español, se presentan combinaciones donde existe ambigüedad para detectar el objeto directo. Por ejemplo la frase la realidad supera la ficción podría presentarse en la forma verbo, sujeto, objeto directo (*supera la realidad la ficción). Para comprender la frase correctamente, es decir, para identificar los argumentos, se emplea la preposición a antes de objetos inanimados: supera la realidad a la ficción.

Entonces, la categoría de animidad tiene en el español dos valores opuestos: an (animado) y na (no animado). En el siguiente patrón de rección mostramos las distintas formas en que se presenta la marca de animidad.

atrapar1

X using force catches Y

1 = X; quién atrapa?

1.1   (S, an)                               % el policía / el gato ~

    2 = Y!; qué / a quién?

2.1   (S, na)                               % ~ la maleta

2.2   a (S, an)                            % ~ a un ladrón

En la primera valencia se expresa el uso de sustantivos animados, en la segunda valencia se expresa el objeto directo con sustantivos no animados (S, na) y con la marca de animidad (S, an). Esta última responde precisamente a la pregunta ¿a quién? que se aplica tanto a una persona o a un animal, como a un grupo, a un partido, etc. Por ejemplo: ¿A quienes atrapó la policía?, y la respuesta: Al equipo de fútbol de la secundaria 28.

Así que la animidad es una característica evidentemente sintáctica pero con alusión semántica que se considera para la realización de las valencias. Su principal importancia en el español es la característica gramatical de conectar el objeto directo animado con preposición, aunque como hemos visto su uso puede ser útil para otros casos.

3.4.2       Uso de la animidad como marca semántica

Si definimos la noción de animidad en un sentido puramente semántico, como una característica de los seres vivos, entonces comprenderíamos de inmediato que hay una gran diferencia entre esa noción semántica y la animidad gramatical. La animidad semántica, entonces, sólo debería tomarse como característica de valencias de verbos orientados a “lo humano” como leer, cuyo sujeto puede ser solamente un ser humano o un autómata inventado en las últimas décadas con ese fin específico. En otros casos deberá ser únicamente asociada a los seres humanos, ya que es difícil, al menos en este tiempo, asociar un autómata con verbos como: procrear, morir o imaginar.

Por supuesto que no consideramos ni las metáforas ni la poesía como ¡Canta, lluvia, en la costa aún sin mar![25], ya que la interpretación de ellas posiblemente será realizada por las computadoras en siglos futuros.

Dado que la noción de animidad en el sentido semántico de criaturas vivientes no incluye las entidades personificadas, se requiere una mayor investigación para definir exactamente si en todas las aplicaciones la característica de animidad es la misma característica de animidad del español o una muy similar a la característica semántica de seres vivientes. Por lo que de aquí en adelante emplearemos únicamente la característica de animidad gramatical para otras valencias.

Es conocido que la preposición a también tiene otros usos, no relacionados con la conexión del objeto directo. Pero aún para en el caso del objeto directo su empleo puede servir para diferenciar el significado de algunos verbos, por ejemplo, querer algo (tener el deseo de obtener algo) y querer a alguien (amar o estimar a alguien). El primero ya se presentó como querer1 y el segundo corresponde a:

querer2

person X desires thing Y

   1 = X; quién quiere?

1.1   (S, an)                              % el niño ~

2 = Y!; qué?

2.1   (S, na)                              % ~ un triciclo

Otra utilidad del empleo de la animidad está relacionada con la primera valencia de algunos verbos, es decir, con el sujeto, y con su detección para reconocer valencias sintácticas. Por ejemplo, el verbo acusar presenta homonimia: acusar1 (denunciar a alguien como culpable de algo) y acusar2 (revelar algo, ponerlo de manifiesto), conforme el DEUM (1996). Presentamos a continuación sus patrones de rección:

acusar1

person X accuses person Y of action Z

1 = X;  quién acusa?

1.1   (N, an)                          % el ministro ~

% la madre ~

2 = Y!;  a quién acusa?

2.1   a (N, an)                       % ~ a los políticos

% ~ a los niños

3 = Z;  de qué?

3.1   de (N, na)                      % ~ de robo

3.2   de (V, inf)                      % ~ de defraudar

acusar2

X reveal Y

1 = X;  quién/ qué acusa?

1.1   S                                   % el ministro ~, la puerta ~

2 = Y!;   qué acusa?

2.1   (S, na)                            % ~ cansancio

                                             % ~ el paso de los años

En algunas construcciones de acusar1 como las siguientes, el sujeto aparece pospuesto al verbo en dos formas: como nombre propio y como nombre común:

        Al director le acusaba Apel de desembocar en una ilusión idealista por ocuparse de <...>.

        En el presunto fraude aparece como principal sospechoso José Joaquín Portuondo, a quien acusaron varios testigos.

En la primera frase el reconocimiento de nombre propio permite identificar el sujeto. En la segunda frase se requiere reconocer la entidad animada marcada en la realización del sujeto de acusar1, es decir, reconocer que varios testigos es el sujeto. De esta forma no habrá confusión con el objeto de acusar2, por ejemplo, en oraciones donde las realizaciones de las valencias no son muy diferenciadas: Que acusaba un alto rendimiento, le acusaba un alto magistrado. Esta confusión puede resultar en una asignación de estructura incorrecta o en detección de valencia de otro sentido.

3.5          Repetición limitada de valencias

Generalmente las entidades referidas por las diversas valencias sintácticas son diferentes. Ésta es una situación normal en los lenguajes naturales: cada valencia semántica se puede representar en el nivel sintáctico por solamente un actuante.

Pero existen lenguajes en los cuales se permite la repetición restringida de actuantes. El español se cuenta entre esos lenguajes. En las frases siguientes, en cada oración, los dos segmentos disjuntos marcados con negritas se refieren al mismo objeto:

        Arturo le dio la manzana a Víctor.

        El disfraz de Arturo, lo diseñó Víctor.

        A Víctor le acusa el director.

Mientras en la primera frase se repite el objeto indirecto, en las dos últimas frases se repite el objeto directo.

Algunas veces la repetición es obligatoria. El orden de palabras y los verbos específicos imponen ciertas construcciones. Por ejemplo, la anteposición de los argumentos dativos y acusativos presenta una complicación.

Las siguientes frases con objeto directo no permiten la duplicación:

Arturo escribió la carta.

Escribió Arturo la carta.

En cambio, la anteposición del objeto directo (*La carta escribió Arturo) requiere una marca de puntuación o la duplicación para ser correcta:

La carta, Arturo la escribió.

La carta la escribió Arturo

Para el objeto directo animado, que se introduce con la preposición a, tenemos los siguientes ejemplos:

El frío mató a la mosca.

Mató el frío a la mosca.

Mató a la mosca el frío.

Pero la anteposición del objeto directo animado (*A la mosca mató el frío) requiere la duplicación para ser correcta:

A la mosca la mató el frío.

En el ejemplo para objeto indirecto que a continuación mostramos, se permite la duplicación:

Arturo escribió una carta a Víctor.

Arturo le escribió una carta a Víctor.

También la anteposición del objeto indirecto (*A Víctor escribió una carta Arturo) requiere la duplicación para ser correcta:

A Víctor le escribió una carta Arturo.

Zubizarreta (1994) afirma que la existencia de objetos doblados por clíticos es una diferencia más del español, ya que no existe en el italiano escrito, ni en el francés ni en otros lenguajes europeos.

Notamos, por el contrario, que los siguientes ejemplos no están relacionados con la repetición de objetos, corresponden a otra condición. Mientras que en la primera frase se omitió la tercera valencia del verbo ordenar (a quién se ordenó algo), en la segunda frase se representó con le.

El juez ordenó tomar declaración al acusado.

El juez le  ordenó tomar declaración al acusado.

El objeto indirecto a nadie también puede repetirse con el clítico dativo pero dentro de su propia cláusula, no puede moverse a cláusulas superiores (Zubizarreta, 1994). Por ejemplo:

A nadie le dijo Juan de su boda.

*A  nadie piensa María que le dijo Juan de su boda.

Los pronombres personales también se pueden repetir:

A todos les dijo Juan de su boda.

En todos los casos la repetición de actuantes se restringe mediante las siguientes reglas:

        Uno de los actuantes repetidos es un pronombre personal en caso indirecto (acusativo o dativo). Para las formas personales este pronombre usualmente permanece justo antes del verbo rector, en los infinitivos se pega al verbo.

        Otra repetición del mismo actuante se da con un sustantivo, pronombre o algún otro medio. Pero en el caso de un pronombre personal, se pone en nominativo, por ejemplo: A ellas las encontrarás en la tienda.

En el nivel semántico de representación, todos los casos de esas repeticiones deben juntarse, es decir, se debe dejar un solo representativo de cada actuante semántico.

3.6          El complemento beneficiario

En la caracterización semántica de complementos de muchos verbos en varios lenguajes se considera la noción importante de la persona que recibe el interés, la beneficiaria, y la persona destinataria. El interés incluye los sentidos de daño y provecho. Para nuestro estudio son importantes los siguientes aspectos:

        Las personas beneficiaria y destinataria están representadas por el mismo objeto indirecto, como en enseñar algo a alguien, donde a alguien es tanto el beneficiario como el destino. En este caso hay que hacer notar que el complemento beneficiario (o benefactivo) corresponde a una valencia semántica del verbo.

        El beneficiario de la acción no corresponde a ninguna valencia. Es como una circunstancia. Usualmente se introduce mediante la preposición para. Por ejemplo: comprar un libro para alguien, donde el beneficiario se representa con un complemento circunstancial del verbo.

Claro que la preposición para puede introducir también otro tipo de complementos. Por ejemplo, en la frase todo esto es para que te acostumbres (con el sentido de meta), habla muy bien para la edad que tiene (con el sentido de comparación).

Algunos verbos llevan entonces el complemento beneficiario con cualquiera de las preposiciones: a o para, por ejemplo:

Víctor concedió una entrevista a la revista Nature.

Víctor concedió una entrevista para la revista Nature.

En estas frases puede haber una ligera discrepancia en el sentido, si la acción se realizó directamente o indirectamente. Sin embargo, el beneficiario y el destino coinciden. Otras frases pueden mostrar ambigüedad de sentido con esta alternancia de preposiciones:

Emma escribe una carta a Emilio.

Emma escribe una carta para Emilio.

En esta sección nos concentramos en el complemento beneficiario del verbo predicativo y no en otros beneficiarios expresados en la oración, por ejemplo:

Paco dio un libro a su ayudante para Emilio.

Donde para Emilio es complemento beneficiario de un libro y el complemento que recibe el interés del verbo dar es el complemento a su ayudante, es decir, Paco dio a su ayudante un libro para Emilio.

Introducimos una clasificación de verbos de acuerdo a las características transitiva, dativa y beneficiaria.

En esta sección, los verbos del tipo 0 y 1, sin beneficiario potencial, no son relevantes. No existen verbos con características dativa y beneficiaria distintas, por lo que no consideramos los tipos 6 y 7. A continuación presentamos ejemplos de cada tipo.

Del tipo 2 son: corresponder, competer, convenir, doler, parecerse, gustar, faltar, etc. Ejemplos de frases: La creación de leyes corresponde al gobierno, Este asunto compete a todos. Con repetición dativa: La creación de leyes le corresponde al gobierno, Este asunto les compete a todos.

Tipo

Transitivo

Dativo

Beneficiaria

Nota

0

No relevante

1

+

No relevante

2

+

 

3

+

+

 

4

+

 

5

+

+

 

6

+

+

No existen

7

+

+

+

No existen

Del tipo 3 son los más comunes: dar, enseñar, asignar, preguntar, costar, interesar, servir (algo a alguien), etc. Ejemplos de frases: Alberto enseña anatomía a sus alumnos, Alberto preguntó todos los pormenores al abogado. Con repetición dativa: Alberto les enseña anatomía a sus alumnos, Alberto le preguntó todos los pormenores al abogado.

Del tipo 4 son: laborar, cabildear, etc. Ejemplos de frases: Rodrigo labora para la compañía X, Los políticos cabildean para sus amos. Con repetición beneficiaria: no se encontraron.

Del tipo 5 son: comprar, componer, comprobar, etc. Ejemplos de frases: Emilio compone los audífonos para su hermano, Arturo comprueba los resultados para su jefe. Con repetición beneficiaria: Emilio le compone los audífonos a su hermano, Arturo le comprueba los resultados a su jefe.

Existe una larga discusión acerca de la naturaleza argumental del complemento beneficiario. Entre los autores, Branchadell (1992) para el español y Jackendoff (1990) para el inglés, consideran que los beneficiarios no son valencias pero se comportan como ellos, por esto los podemos denominar cuasi valencia.

En el español, el punto de vista de consideración como cuasi valencia está bien fundado ya que a veces se duplica. Pero esta duplicación está sujeta a ciertas restricciones de realización léxica. Se realiza mediante un pronombre personal en la forma clítica o mediante un grupo preposicional. Por ejemplo:

Emma le ha reservado unos lugares a su familia.

En esta frase tanto le como a su familia representan la cuasi valencia beneficiaria, de la misma forma que me y a mí en el siguiente ejemplo:

Emma me ha reservado unos lugares a mí.

Sin embargo, la frase:

Emma ha reservado unos lugares para su familia.

no permite esa clase de repetición. Otros ejemplos presentados por Demonte (1994) explican cómo la cuasi valencia beneficiaria no es posible en ciertas estructuras, por ejemplo:

Le coloqué cortinas al salón.

*Coloqué cortinas para el salón.

*Le coloqué cortinas para el salón.

Y tampoco es posible en ciertos contextos, por ejemplo:

Le puse el papel a la pared.

*Le puse un clavo a la pared.

La autora considera que es por razones del mundo, la pared forma una unidad con el papel y el clavo no.

En otros casos puede verse claramente que existe una distinción entre el complemento indirecto y el destinatario, comparando la diferencia de significado que presentan las dos frases siguientes:

Le di un mensaje para ti.

Te di un mensaje para él.

En los ejemplos, le y te son los complementos indirectos, en cambio para ti y para él son los complementos de destinatario. Si todos los complementos subrayados fueran indirectos, no habría diferencia de contenido entre las dos oraciones.

Esta cuasi valencia con duplicación potencial requiere ser descrita explícitamente en los patrones de rección de los verbos de los tipos 4 y 5. Sin su descripción estaría incompleta la relación con las valencias semánticas. Para los casos de duplicación, su descripción es necesaria para unirlas en el nivel semántico.

 

 

 

 

 

 

 


 

 

 

 

 

Capítulo 4   Descripción sintáctica en el análisis automático

En este capítulo presentamos la gramática generativa para el español, la transformación de los árboles de constituyentes a los árboles de dependencias, y su algoritmo de análisis sintáctico.


4.1          Métodos tradicionales
para caracterizar formalmente las valencias

4.1.1       Subcategorización

Los métodos tradicionales más empleados para describir el nivel sintáctico de los lenguajes naturales son los basados en las gramáticas generativas, y el español no es una excepción. En esta aproximación, la descripción de las características de las valencias para los lexemas se realiza principalmente para los verbos. Los actuantes se describen en ellas desde un punto de vista puramente sintáctico (denominados complementos). Las valencias se denominan características sintácticas. La información de la estructura de los complementos de un verbo se conoce como subcategorización. Cada subcategoría del verbo tiene su propio conjunto de complementos que usualmente van en un orden lineal predeterminado.

A continuación presentamos ejemplos de subcategorización para una selección de verbos del español.

        ver tiene una subcategoría grupo nominal (GN), por ejemplo: Beto vio una araña.

        dar tiene la subcategoría GN seguido de GP, por ejemplo Beto dio una carta a su novia y la permutación GP  GN, por ejemplo Beto le dio a su novia  una carta.

        poner también tiene la subcategoría GN seguido de GP, el grupo preposicional se realiza mediante diferentes preposiciones: en, sobre, bajo, etc. Por ejemplo: Beto puso los libros en el librero. En este ejemplo el grupo preposicional es introducido por la preposición en. Notamos que aunque se especifique esta construcción (en GN) existen otros grupos preposicionales con la misma preposición como: en la mañana, que no corresponde a la realización de la misma valencia. Con la aproximación de subcategoría se pierde esta información para el nivel semántico.

        Llover no tiene subcategoría, puesto que es intransitivo y no permite complementos, lo que es natural para un verbo impersonal.

        acusar tiene la subcategoría GN  de_INF (entre otras), y el objeto directo está conectado mediante la preposición a. Por ejemplo Beto acusó a sus compañeros de negar su ayuda.

Por supuesto, muchos verbos pueden asignar varias subcategorías. Por ejemplo, el verbo decir asigna: GN, que_O, a GN seguido de GN. Por ejemplo: dijo unas palabras de aliento, dijo que el director vendrá pronto, dijo a sus compañeros unas palabras de aliento. Desde el punto de vista de la subcategorización también existen otros verbos cuyas estructuras de complementos en algunas oraciones son similares a esta última subcategoría. Por ejemplo: aconsejó a su alumna (a GN) una vez más (GN), ya que no se distingue que el último grupo nominal representa una circunstancia no directamente relacionada con el significado del verbo.

Presentamos los marcos de subcategorización para el verbo acusar. El ejemplo considera las ocurrencias con más del 10% en un corpus.

1. a GN

3. de V_INF

5. a GN de V_NF

7. GN

2. de GN

4. a GN  de GN

6. Ø

 

De los siete marcos presentados, cinco corresponden al verbo acusar1 (denunciar a alguien como culpable de algo), el sexto marco corresponde a oraciones que presentan antes del verbo el complemento directo, y el séptimo marco corresponde al verbo acusar2 (con sentido de “poner de manifiesto” o “revelar”). Este ejemplo muestra la cantidad de clases de subcategorías consideradas en esta aproximación, y su generalidad, que origina la eliminación de información relevante.

4.1.2       Patrones de rección

La estructura que permite la asociación de las valencias semánticas y sintácticas es el patrón de rección de un lexema. Este PR es una noción lingüística muy importante que se describe con más detalle a continuación. Los patrones de rección sintáctico constan de cuatro secciones:

4.1.2.1 Primera sección

La palabra encabezado, que corresponde al verbo considerado con un significado específico. Para diferenciar los patrones de rección sintáctica de verbos homónimos se da una numeración, por ejemplo: alternar1 (tener trato con otras personas) y alternar2 (hacer dos o más acciones una tras otra y repetidamente). Para diferenciarlos, la numeración es totalmente arbitraria pero debe existir al menos un elemento diferente en el patrón de rección sintáctico respecto de los otros.

4.1.2.2 Segunda sección

La explicación semántica de la situación relacionada a cada verbo específico. En los ejemplos que mostramos, optamos por una simplificación del método de descripción del modelo de la MTT, la explicación semántica se reemplaza por una oración simple en inglés.

En esta sección se definen las valencias, cuyo orden es hasta cierto grado arbitrario, aunque cada lexema normalmente impone un cierto orden “natural” en las valencias, indicando primero las más importantes. Este orden a veces concuerda con el orden en la oblicuidad. Por ejemplo, en primer lugar una entidad activa, el sujeto, enseguida el objeto principal de la acción (primer complemento), después otros complementos, si existen.

También la forma sintáctica de expresar las valencias influye significativamente en el orden. Por ejemplo, cuando el objeto directo se conecta directamente a la palabra encabezado, sin preposiciones, va antes del complemento indirecto, el cuál se conecta generalmente mediante preposiciones.

Para cada valencia sintáctica se indica la valencia semántica correspondiente. En el ejemplo presentado en la sección 2.3 la fórmula 2 = Y  indica que la valencia sintáctica 2 corresponde con la valencia semántica Y. Generalmente el orden de las valencias sintácticas y semánticas es el mismo.

4.1.2.3 Tercera sección

La descripción de cada valencia sintáctica. La lista exhaustiva de todas las posibles formas de realización de cada valencia sintáctica en los textos. Se numeran para cada valencia, para la n-ésima, serán n1, n2, ..., nk, donde k depende del lexema específico y de la valencia. El orden es arbitrario, aunque se prefiere que aparezcan primero las formas más frecuentes. Todas las posibles opciones se expresan con símbolos de categorías gramaticales o subclases de lexemas muy específicas, por ejemplo: S para sustantivos, V para verbos, Adj para adjetivos, etc. También se determinan las palabras específicas que aparecen antes de estos símbolos, como las preposiciones o conjunciones (que), en la forma literal en que se encuentran en los textos.

Después de las categorías gramaticales pueden seguir parámetros léxicos relevantes para el nivel sintáctico. Por ejemplo, la categoría an indica que este actuante es una entidad animada y el parámetro na que indicaría lo opuesto, entidad no animada. La marca INF que indica infinitivo para los verbos, etc. También pueden seguir, a las categorías gramaticales, los descriptores semánticos relevantes para el nivel sintáctico. Por ejemplo loc que indicaría locativo.

Por último, esta sección contiene el indicador de condición de obligatoriedad en los textos. Si no está presente este indicador, significa que es opcional en su realización sintáctica, es decir, que aunque semánticamente existe, se desconoce el actuante, es algo o alguien no especificado. El reconocimiento de estos actuantes se lleva a cabo en niveles más profundos del análisis.

4.1.2.4 Cuarta sección

En la última sección se muestra la información acerca de los posibles ordenamientos o combinaciones de valencias sintácticas, es decir, de los órdenes posibles e imposibles. Para lenguajes con un orden de palabras con menos restricciones esta lista pudiera reducirse a la lista de órdenes imposibles. Por ejemplo:

        ÓRDENES POSIBLES 2.1, 3.2, 4.1

significa que la primera opción de la segunda valencia seguida de la segunda opción de la tercera valencia seguida de la primera opción de la cuarta valencia aparece en los textos.

        ÓRDENES IMPOSIBLES 2.2, 3.1

significa que la segunda opción de la segunda valencia seguida de la primera opción de la tercera valencia nunca aparece en los textos.

Pudiera establecerse también que con la misma notación se describen todas las combinaciones de las opciones especificadas. En lenguajes con un orden de palabras estricto, las combinaciones posibles describen ese orden.

A continuación se presenta un ejemplo de los patrones de rección sintáctico para el verbo solicitar. Las preposiciones se marcan en tipo itálico, los ejemplos se encuentran después del signo %, el signo ~ se utiliza para colocar la palabra encabezado y en la sección de combinaciones el “0” representa la palabra encabezado.

solicitar

X asks something Y from Z

Número

Patrón de rección

Ejemplo

X = 1; who asks?

1.1

S (an)

Juan / el gobierno ~

Y = 2; what?

2.1

S (na)

~ una prórroga / un préstamo

2.2

que C

~ que este libro se le dé

Z = 3; from whom?

3.1

a  S (an)

~ a la secretaria

3.2

con S (an)

~ con el secretario

3.3

de  S (an)

~ de usted

3.4

en S (na)

~ en urgencias

POSIBLES:

(1) 0 2 3

(El partido) solicita una prórroga al gobierno.

(1) 0 2

(Ella) solicita un préstamo.

IMPOSIBLES:

(1) 0

*(El partido) solicita.

(1) 0 3

*(El partido) solicita al gobierno.

donde:

S          : sustantivo o pronombre personal

que C  : cláusula subordinada relacionada a la principal a través de que (... que este libro se dé al muchacho)

(an)      : animado (solamente para sustantivos), corresponden a criaturas vivientes, incluyendo al ser humano, grupos de humanos, organizaciones, etc.

(na)      : inanimado (solamente para sustantivos), como argumento, acción y lugar,

Existen otras abreviaturas que no se utilizaron en este ejemplo, como:

V         : verbo

Adj      : adjetivo

Adv     : adverbio

Pp        : pronombre personal

Q         : cláusula subordinada que tiene forma de interrogación.

Por ejemplo, para el verbo decir: “Dijo: ¿A quién se dio este libro?

(inf)     : forma infinitiva (solamente verbos)

(tm)     : intervalo de tiempo (solamente para sustantivos)

(mn)    : de manera (solamente para adverbios)

(pc)     : de lugar (solamente para adverbios)

(nom)   : caso nominativo (solamente para pronombres personales)

(acc)    : caso acusativo (solamente para pronombres personales)

(dat)    : caso dativo (solamente para pronombres personales)

(inc)     : caso inclusivo (solamente para pronombres personales)

En este caso, inclusivo lo introducimos como una designación de las formas contraídas conmigo, contigo, consigo.

Se observa en este ejemplo que las preposiciones, principalmente, son los lexemas de conexión que introducen los objetos del verbo. El uso de las preposiciones es muy variado en el español, y los complementos de los verbos, generalmente, exigen el empleo de una determinada preposición. Por ejemplo: me arrepiento de mis acciones, lo expresó con ademanes, insisto en pagar. Esto ocurre también con sustantivos y adjetivos que exigen el empleo de una determinada preposición. Ejemplos: intolerante con sus amigos, esencial en el proyecto, inferior a su compañero. En cuanto al objeto directo, normalmente se construye sin preposición, salvo cuando designa seres humanos o animados que podrían aparecer en la posición de sujeto.

Existen pues varias diferencias importantes respecto a la aproximación de subcategorización frente a las gramáticas de dependencias:

        Se postula un marco, como un conjunto de subcategorías, y después se intenta clasificar la diversidad total de verbos para ese marco. Esta aproximación es suficientemente buena cuando el número total de subcategorías es pequeño, pero no así en lenguajes donde casi cada verbo presenta su propia subcategoría específica, como en español.

        Generalmente no intentan establecer correspondencia entre valencias sintácticas y semánticas. La separación entre complementos del verbo y complementos circunstanciales no existe, por lo que pueden incluirse predicados cuya ocurrencia es obligatoria en el contexto local de la frase pero que no son seleccionados semánticamente por el verbo.

        Usualmente, en cada subcategoría, las valencias sintácticas se consideran en un orden fijo predeterminado. Por ejemplo, los complementos preposicionales en una frase como (persona A) (expresa) (idea B) (mediante C), corresponden exactamente a una regla de producción, dando los constituyentes justamente en el mismo orden fijo: GN GV GN GP. Si se añaden complementos circunstanciales como en la mañana o se emplea una variación sintáctica como en la frase Javier expresa mediante tiernas palabras sus sentimientos, estas reglas fallarán y será necesario incluir nuevas reglas.

Los marcos de subcategorización consideran un conjunto de complementos. La colección de esos marcos para lenguajes como el inglés no es vasta. En español, como en otros lenguajes, la variedad en el uso de preposiciones es tan amplia que la colección completa sería muy grande y se requerirían muchas clases de subcategorización para describir un verbo.

4.2          Una gramática de contituyentes para el español

Las gramáticas independientes del contexto especifican cómo se forman las oraciones a partir de sus partes constituyentes y cómo se deriva la información asociada con cada oración (es decir, su interpretación) de la información de sus partes. En la creación de este tipo de gramática se considera la capacidad de tratar oraciones no conocidas previamente, es decir, de realizar una generalización con respecto a los datos considerados como base para desarrollar la gramática. Esta generalización hace que se prediga la gramaticalidad[26] de nuevas oraciones en relación con un conjunto de reglas considerado.

La creación de este tipo de gramáticas implica tomar decisiones sobre dos requisitos que están en conflicto: la precisión y la cobertura. La precisión mide el grado de acierto de la gramática en lo que se refiere al análisis sintáctico. La cobertura gramatical mide la proporción de oraciones que reciben un tratamiento aceptable, generalmente respecto a un corpus de evaluación. Ambas propiedades son muy importantes, mientras más precisa es una gramática mejor es la calidad de sus análisis, y mientras mayor cobertura tenga mayor será la variedad de estructuras que trate la gramática.

El conflicto entre ambas propiedades se presenta cuando se quiere aumentar el rendimiento de ellas. Para mejorar la precisión hay que incorporar más restricciones a la gramática, con lo que se tiende a perder cobertura, ya que las nuevas restricciones suelen rechazar algunas oraciones más o menos correctas que ya se aceptaban. Pereira (1996) afirma que esto se debe a que las restricciones más poderosas son en realidad idealizaciones de la actuación real (lo que se realiza) de los hablantes, es decir, que la actuación es mucho más permisiva que la competencia (el conocimiento gramatical que se tiene).

Por el otro lado, si se quiere mejorar la cobertura, se tiene que aumentar el número de reglas. Cuando una gramática alcanza un tamaño considerable es cada vez más difícil de controlar y extender, ya que las nuevas reglas entran en interacciones complejas con las anteriores, por lo que oraciones que antes no presentaban problemas producen análisis equivocados, es decir, aumenta la ambigüedad y decrece la precisión.

La gramática que desarrollamos en este caso, dado el tiempo y los recursos limitados, no tiene las condiciones óptimas en cuanto a cobertura y precisión. Nuestra gramática pretende considerar las construcciones más comunes, permitirnos identificar el elemento rector en cada grupo y las relaciones sintácticas para el orden de palabras usual.

Para verificar la gramática, los elementos que más contribuyen son el marcaje de características morfológicas y la gramática misma, los cuales detallamos a continuación.

4.2.1       Marcas morfológicas

El marcaje de partes del habla o de categorías gramaticales (en inglés POS tagging) es útil para el análisis sintáctico. Conocer esta marca para una palabra específica ayuda a descartar la posibilidad de que esa misma palabra tenga otra categoría gramatical. La ambigüedad en categoría gramatical se refiere a que una palabra puede tener varias categorías sintácticas, por ejemplo ante puede ser una preposición o un sustantivo. La desambiguación de este marcaje es muy útil para reducir la cantidad de ambigüedad que tiene que enfrentar el analizador sintáctico.

El marcaje de partes del habla es la subárea del procesamiento lingüístico de textos por computadora que considera el estudio de métodos y algoritmos para reducir el porcentaje de ambigüedad. Los métodos que se han empleado se pueden clasificar en tres tipos: lingüísticos, estadísticos y aprendizaje mediante máquina. La mayor precisión en métodos lingüísticos corresponde a Voutilainen (1994), con 99.3%, aunque no todas las palabras están completamente desambiguadas. Su defecto es la gran cantidad de tiempo que consume el desarrollar un buen modelo del lenguaje, puesto que se requieren muchos años de recursos humanos. Los resultados producidos mediante métodos estadísticos han logrado entre 95% y 97% (Ludwig, 1996) de palabras marcadas correctamente. Su defecto es la dificultad de estimar con precisión el modelo del lenguaje, puesto que es necesario considerar los parámetros del modelo en casos como los siguientes: la probabilidad de que cierta palabra aparezca con cierta marca o la probabilidad de que una marca sea seguida por otra marca específica.

Existen métodos híbridos que combinan diferentes aproximaciones, por ejemplo el uso de recursos basados en estadísticas y en conocimiento.

En el tipo de aprendizaje mediante máquina los autores emplean algoritmos de aprendizaje para adquirir el modelo del lenguaje a partir de un corpus de entrenamiento, por ejemplo, el algoritmo de Brill (1995) es un aprendizaje dirigido por los errores y basado en transformaciones. Pocos de estos métodos se aplicaron al español. Padró (1997) menciona la aplicación de su método a este lenguaje, aunque sin reportar la precisión exacta.

La desambiguación de las partes del habla implica al menos un análisis sintáctico parcial en muchos casos, por lo cual no ha sido posible obtener una desambiguación total. En consecuencia, una alternativa es marcar todas las categorías gramaticales con base en las características morfológicas de las palabras y dejar al análisis sintáctico la desambiguación correspondiente.

En esencia, el marcaje es el análisis morfológico. Sin este análisis, el análisis sintáctico es imposible. Pero al considerar todas las marcas morfológicas posibles de cada palabra el análisis sintáctico usualmente da muchas variantes, ya que considera cada una de las marcas de cada palabra para empatarlas con las reglas de la gramática. Sólo una marca de todas las posibles de la palabra aparece en una variante.

La gramática que creamos se apoya en las marcas morfológicas que contienen las palabras del corpus[27] que consideramos. Este corpus no contiene desambiguación de POS, por lo que el trabajo de análisis es mayor. Esta aparente desventaja tiene su contraparte: si se usa un corpus con desambiguación de POS ya aplicada y el desambiguador de POS usado para crear tal corpus no era de muy alta precisión, ocasionará que de antemano se orille a un análisis sintáctico incorrecto, ya que alguna palabra tendrá una marca incorrecta. Por ejemplo, con precisión de 97% una de cada 33 palabras será incorrecta —es decir, casi cada oración contendrá una palabra desambiguada incorrectamente, lo que hace el análisis sintáctico de tal corpus prácticamente imposible. Por otro lado, desambiguación de POS no es necesaria para el funcionamiento del analizador sintáctico, aunque puede agilizarlo. Nosotros preferimos el análisis menos rápido pero más confiable.

El corpus LEXESP tiene las categorías PAROLE (Civit y Castellón, 1998). La clasificación de categorías gramaticales en PAROLE la presentamos a continuación, ahí se indican los rasgos considerados. Aunque la posibilidad teórica de consideración de rasgos es mayor, aquí solamente consideramos los que se encuentran en el corpus.

1)      Adjetivo (A)

Tipo

Grado

Género

Número

Caso

Función

Valor

Clave

 

Valor

Clave

Valor

Clave

 

 

Califi-
cativo

Q

0

Femenino

F

Singular

S

0

0

 

 

 

Masculino

M

Plural

P

 

 

 

 

 

Común

C

Invariable

I

 

 

Ejemplo: frágiles <AQ0CP00>

2)      Adverbio (R)

Tipo

 

Tipo

Grado

Función

Valor

Clave

 

 

 

General

G

0

0

0

Ejemplo: no <RG000>

3)      Artículo (T)

Tipo

 

Género

 

Número

 

Caso

Valor

Clave

Valor

Clave

Valor

Clave

 

Definido

D

Femenino

F

Singular

S

0

Indefinido

I

Masculino

M

Plural

P

0

 

 

Común

C

 

 

 

Ejemplo: la <TDFS0>

4)      Determinante (D)

Tipo

Persona

Género

Número

Caso

Poseedor

Valor

Clave

 

Valor

Clave

Valor

Clave

 

 

Demostrativo

D

1

Femenino

F

singular

S

0

0

Posesivo

P

2

Masculino

M

Plural

P

 

 

Interrogativo

T

3

Común

C

Invariable

N

 

 

Exclamativo

E

 

 

 

 

 

 

 

Indefinido

I

 

 

 

 

 

 

 

Ejemplo: tal <DD0CS00>

5)      Sustantivo (N)

Tipo

 

Género

 

Número

 

Caso

Género

Grado

Valor

Clave

Valor

Clave

Valor

Clave

 

semántico

 

Común

C

Femenino

F

Singular

S

0

0

0

Propio

P

Masculino

M

Plural

P

 

 

 

 

 

Común

C

Invariable

I

 

 

 

Ejemplo: señora <NCFS000>

6)      Verbo (V)

Tipo

 

Modo

 

Tiempo

 

Valor

Clave

Valor

Clave

Valor

Clave

Principal

M

Indicativo

I

Presente

P

Auxiliar

A

Subjuntivo

S

Imperfecto

I

 

 

Imperativo

M

Futuro

F

 

 

Condicional

C

Pretérito

S

 

 

Infinitivo

N

 

 

 

 

Gerundio

G

 

 

 

 

Participio

P

 

 

 

Persona

Número

 

Género

 

 

Valor

clave

Valor

Clave

1

Singular

S

Femenino

F

2

Plural

P

Masculino

M

3

 

 

 

 

Ejemplo: acabó <VMIS3S0>

7)      Pronombre (P)

Tipo

 

Persona

Género

 

Número

 

Valor

Clave

 

Valor

Clave

Valor

Clave

Personal

P

1

Femenino

F

Singular

S

Demostrativo

D

2

Masculino

M

Plural

P

Posesivo

X

3

Común

C

Invariable

N

Indefinido

I

 

 

 

 

 

Interrogativo

T

 

 

 

 

 

Relativo

R

 

 

 

 

 

Ejemplo: ella <PP3FS000>

8)      Conjunciones (C)

Tipo

 

Posición

Valor

Clave

 

 

Coordinada

C

0

0

Subordinada

S

 

 

Ejemplo: y <CC00>

9)      Numerales (M)

Tipo

 

Género

 

Número

 

Caso

Función

Valor

Clave

Valor

Clave

Valor

Clave

 

 

Cardinal

C

Femenino

F

Singular

S

Ordinal

O

Masculino

M

Plural

P

0

0

 

 

Común

C

 

 

 

 

Ejemplo: cinco <MCCP00>

10)   Preposiciones (SPS00). Ejemplo: <SPS00>

11)   Números (Z). Ejemplo: 5000 <Z>

12)   Interjecciones (I). Ejemplo: oh <I>

13)   Abreviaturas (Y). Ejemplo: etc. <Y>

14)   Puntuación (F). Todos los signos de puntuación (.,:;-¡!’¿?”%). Ejemplo “.” <Fp>

15)   Residuales (X). Las palabras que no encajan en las categorías previas. Ejemplo: sine <X>

Un ejemplo de marcas en el corpus es el siguiente, para la palabra bajo que puede ser tanto una forma verbal como preposición, adverbio, sustantivo o adjetivo: bajar<VMIP1S0> bajo<SPS00> bajo<RG000>  bajo<NCMS000>  bajo<AQ0MS00>

El valor común de género se emplea tanto para femenino como para masculino, por ejemplo: alegre. El valor invariable en número se emplea tanto en singular como en plural, por ejemplo, el pronombre se.

4.2.2       Desarrollo y ampliación de cobertura de la gramática

La creación y cobertura de la gramática para sistemas computacionales no puede basarse en la literatura sobre lingüística teórica, por la falta de explicitud, la falta de atención a detalles poco teóricos (como nombres propios, fechas, etc.), y porque además no se consideran los problemas de implementación en computadora (por ejemplo los movimientos de grupos de palabras en distintas posiciones en la oración).

Por un lado, el desarrollo de una gramática grande es extremadamente lento. No existen métodos para hacer eficiente la ingeniería de gramáticas (Erbach y Uszkoreit, 1990). Desde el punto de vista computacional sería deseable modulizar el desarrollo de la gramática (Volk, 1992). Sin embargo, las reglas son muy interdependientes, por ejemplo: los grupos verbales contienen grupos nominales, los grupos nominales pueden representarse mediante grupos verbales en infinitivo, etc. Más adelante presentaremos los detalles de la compilación de la gramática.

Por otra parte, no hay un consenso general sobre la medición de la cobertura de una gramática. Los participantes del Saarbrücken Grammar Engineering Workshop[28] reportaron el tamaño de sus gramáticas en bytes, líneas de código, número de reglas, número de unificaciones, descripciones diferentes de nodos, y una lista de los fenómenos lingüísticos que cubrían. La GPSG (Gazdar et al., 1985) ilustra que el número de reglas por sí mismo no es una buena medida, porque algunas reglas son equivalentes a un gran número de reglas de gramáticas independientes del contexto.

Por esta razón, para indicar la creación y cobertura de nuestra gramática, presentamos, en el Apéndice A, el conjunto de oraciones de prueba, y a continuación describimos las estructuras sintácticas que consideramos:

1                Estructuras de cláusulas. Entre ellas: cláusulas principales, cláusulas subordinadas, oraciones compuestas.

2                Frases.

3                Frases verbales, de verbos auxiliares y finitos.

4                Frases nominales. Consideramos frases simples, la modificación con frases preposicionales y con adjetivos, los infinitivos sustantivados, los sustantivos compuestos y los números.

5                Frases preposicionales. En distintas funciones: como objetos de verbos, como modificadores de sustantivos, adjetivos y adverbios, y como complementos.

6                Frases adjetivas, que modifican los sustantivos.

7                Frases adverbiales. Como modificador verbal, en todas las posiciones posibles. Como complemento.

8                Listas de cláusulas y de frases (nominales, preposicionales y adjetivas).

9                Otros fenómenos lingüísticos:

        Concordancia. En el grupo nominal, entre sustantivos y adjetivos, y todas sus variantes. Entre grupo nominal como sujeto y verbo. Entre verbo auxiliar y los grupos: de participio, de sustantivo y de adjetivo.

        Grupos de tiempo. Por ejemplo: hace un mes, una semana, todo el año.

        Puntuación. Separando grupos y como enfatizadores.

También consideramos algunos fenómenos específicos como el caso: adjetivo todo + artículo + grupo nominal, por ejemplo todos los niños de la calle.

Una evaluación estadística basada en un corpus del español, que presentamos más adelante en la sección dedicada a la verificación de la gramática.

4.2.3       Mejora en la gramática

Las reglas que compilamos cubren las estructuras sintácticas antes descritas. La lista completa de las reglas la presentamos en la siguiente sección. En esta sección detallamos las mejoras que introdujimos en nuestra gramática, independientemente del contexto del español. A continuación las enumeramos:

1           Reglas recursivas, por ejemplo para aceptar varios adjetivos consecutivos.

2           Convenciones para mejorar la capacidad expresiva y para una formulación más compacta, como la alternancia.

3           Convención de opcionalidad, para permitir varios constituyentes que a su vez no sean obligatorios.

4           Restricción de concordancia, la empleamos para evitar una clase de generación en exceso.

5           La inclusión del elemento rector, marcado con el signo “@”.

6           La inclusión de relaciones sintácticas, por ejemplo un adverbio tiene una relación de modificación (mod) respecto a un verbo rector.

7           Inclusión de elementos de puntuación.

8           Inclusión de marcas semánticas. Marcamos grupos nominales con descripción semántica de tiempo. Por ejemplo: semana, año, etc.

9           Pesos estadísticos para graduar el número de reglas que se usan en el análisis.

Las tres primeras mejoras son muy comunes y simplifican la labor de la persona que elabora las reglas. La cuarta mejora es indispensable en un lenguaje con tanta flexión como el español. Las restantes mejoras no son muy comunes en este tipo de gramáticas.

Pocos estudios han considerado la inclusión del elemento rector con la misma noción de las gramáticas de dependencias, por ejemplo Collins (1999). Nuestra razón principal para incluir el elemento rector, en este contexto, es facilitar la conversión de un árbol sintáctico de constituyentes resultante de un análisis sintáctico mediante CFG, a un árbol de dependencias correspondiente a la DG (Dependency Grammar) para la misma oración. Este procedimiento se detalla en la sección 4.2. Como ya mencionamos, la estructura de dependencias tiene la ventaja de mostrar las relaciones entre las palabras mismas de la oración.

Consideramos el marcado muy simple de grupos nominales de tiempo para detectar complementos circunstanciales. La idea general es poder identificar por anotación en el diccionario, mediante marcas de descriptores semánticos, las subclases del tipo: tiempo, lugar, manera, etc. De esta forma es posible mejorar la precisión sin aumentar considerablemente el número de variantes generadas. Suponemos que un etiquetamiento mayor de lexemas en el diccionario, del tipo mencionado, hará más exitosa la desambiguación.

Siguiendo a Jones (1994) —que consideró la puntuación como las marcas que no son léxicas y que se encuentran en los textos— incluimos los siguientes elementos de puntuación: coma, punto y coma, dos puntos, punto, signos de interrogación, signos de admiración, paréntesis, comillas, guiones, y apóstrofo. En nuestra gramática tomamos en cuenta elementos de puntuación que funcionan como enfatizadores (dijo que quería “un dulce”), como separadores de listas de elementos similares (rojo, verde, azul), y como delimitadores de modificadores (adverbios, circunstanciales). La inclusión de elementos de puntuación está relacionada con la calidad de la gramática y con la disminución de la cantidad de frases correctas que la gramática no puede analizar.

Partimos de una gramática general con base en manuales gramaticales y de un corpus de textos reales, pero tuvimos que reducir la generalidad de la gramática para evitar el elevado número de variantes. Por ejemplo, un complemento circunstancial puede estar realizado sintácticamente mediante adverbios, grupos preposicionales, grupos del gerundio; al considerar un complemento realizado como grupo nominal se incrementa el número de variantes, ya que cualquier grupo nominal sería considerado, adicionalmente a su condición de posible sujeto, objeto directo o constituyente de grupos preposicionales y grupos de gerundio, como un complemento circunstancial.

Es imposible atribuir valores absolutos, cierto o verdadero, a la aplicación de una regla y a la estructura gramatical resultante. No podemos partir de la suposición de que cada regla, aunque se haya mostrado su validez, se pueda aplicar siempre en la misma forma, por lo que es necesario considerar leyes probabilísticas. Así que asignamos pesos bajos (prioridad alta) a las reglas más empleadas y pesos más altos (prioridad baja) a las reglas que además de introducir un mayor número de variantes no son muy empleadas. Por ejemplo, un grupo nominal algunas veces es un complemento circunstancial.

4.2.4       Verificación preliminar de la gramática

La verificación de una gramática se realiza manualmente o semiautomáticamente mediante computadora. Por supuesto,  es menos complicado cuando se trata de una gramática pequeña. Para verificar una gramática grande se ha considerado el empleo de un corpus, sin embargo, la objeción es que un corpus no contiene ejemplos de los fenómenos lingüísticos de forma sistemática. Gazdar (1999) considera los siguientes criterios como adecuados para verificar una gramática computacional:

        Si la gramática genera en exceso, es decir, si la gramática acepta construcciones incorrectas.

        Si la gramática subgenera, es decir, si la gramática no puede analizar frases correctas.

        Si la gramática asigna estructuras apropiadas a las oraciones que logró analizar.

        Si la gramática es bastante simple.

        Si la gramática es general, es decir, que sea una gramática capaz de realizar generalizaciones con respecto a las estructuras consideradas.

Considerando estos criterios, creamos un corpus de oraciones de prueba. Los conjuntos de pruebas se construyen desde el punto de vista lingüístico (Netter et al., 1998). También se ha intentado usar corpus, con distintos niveles de marcado, con el inconveniente de la cantidad de trabajo que se requiere para transformarlo, porque usualmente las oraciones de un corpus no contienen fenómenos lingüísticos aislados ni variación sistemática de ellos. Bröker (2000) propone un método de reuso del conocimiento para construir la gramática, con la finalidad de compilar su correspondiente conjunto de pruebas, el objetivo principal que se logra es el de cobertura de la gramática.

Nuestro conjunto de prueba, actualmente, cubre los fenómenos lingüísticos considerados en la gramática, pero no tiene el propósito de cubrir toda la gramática. Su objetivo principal es mostrar lo siguiente:

        Ejemplos del tipo de construcciones que se analizan correctamente.

        Ejemplos negativos, es decir, para qué construcciones las oraciones se rechazan.

        Ejemplos de concordancia, ya que está explícita en las reglas, mostrar qué tipos de concordancia se consideraron.

Cada uno de los ejemplos tiene el propósito de mostrar un fenómeno lingüístico. Con el proceso de este corpus no se observan todos los resultados de las mejoras consideradas, ya que su función está enfocada a la calidad del analizador sintáctico: a la disminución de variantes, a la asignación de estructuras apropiadas y a la simplificación de la gramática. Este corpus solamente es adecuado para indicar que la gramática está caracterizada para reconocer si las oraciones pertenecen al lenguaje descrito o no (adecuación observada).

A falta de una metodología aceptada de forma general para la medición del funcionamiento de una gramática, que sea objetiva, rigurosa y verificable, consideramos el uso de un conjunto de pruebas para mostrar la cobertura de la gramática y, adicionalmente, pruebas en un conjunto grande de textos. A continuación presentamos los resultados obtenidos con el analizador sintáctico que describimos en las secciones previas para el análisis sintáctico del corpus LEXESP.

En un fragmento del corpus, de 2 MB, se tienen 2552 oraciones. Del total de oraciones se analizó el 66%. La longitud promedio fue de 18 palabras, aunque el rango de longitud va de una palabra a 156 palabras. El número de variantes va de una a 109, con un promedio de 98 ´ 106. De las 872 oraciones que no se analizaron, 200 corresponden a frases donde faltaban marcas morfológicas.

De 119,007 oraciones, el 50% del corpus, se analizó el 55% de ellas, con una longitud promedio de 22 palabras. El rango de longitud va de una palabra a 297 palabras. El número de variantes va de una variante a 1010, con un promedio de 129 x 106. Un total de 15,477 oraciones, de las 54010 que no se analizaron, son oraciones con palabras sin marca morfológica.

Como habíamos mencionado, crear una gramática computacional grande toma mucho tiempo. Entre las tareas que se deben realizar está la modificación de las características de los datos de entrada. Entre los aspectos que consideramos que se pueden mejorar se encuentran:

        Marcaje de POS de mejor calidad.

Incluyendo el marcaje de POS de los casos acusativo y dativo.

La generación en exceso de marcas de POS alimenta la generación excesiva de análisis sintácticos, puesto que cada marca más de la necesaria genera al menos una marca sintáctica más de las necesarias.

        Inclusión de marcas semánticas. Por ejemplo locativo, etc.

        Modificación de las relaciones sintácticas. Por ejemplo: la reducción de relación de un adverbio, que ahora se considera tanto en relación adverbial como circunstancial.

Existen muchos otros factores que inciden en la verificación de la gramática y que por el momento están fuera del ámbito de este estudio, como el género de los textos. Por ejemplo, oraciones muy largas de tipos específicos de texto son mucho más complicadas y difíciles de analizar, oraciones del lenguaje hablado, etc.

4.2.5       Reglas gramáticales

En esta sección presentamos todas las reglas gramaticales que compilamos. En secciones anteriores dimos las razones teóricas, aquí presentamos los detalles y aspectos prácticos.

Para describir construcciones recursivas empleamos reglas recursivas como la siguiente, donde el elemento de la izquierda también aparece en la parte derecha de la regla:

LIS_CLAUSE ® @:CONJ [SEP_O] coord_conj:LIS_CLAUSE

En esta regla, además, ejemplificamos la opcionalidad que se marca con corchetes. El elemento SEP_O (separadores en la oración) puede aparecer o no en una lista de oraciones precediendo a una conjunción. Con la regla anterior, describimos una lista de cláusulas que puede estar constituida por un sin fin de cláusulas, ya que adicionalmente contamos con la regla:

LIS_CLAUSE ® @:CLAUSE

que está embebida en la regla siguiente, donde se considera la lista de cláusulas separadas por elementos de puntuación:

LIS_CLAUSE ® @:CLAUSE [[SEP_O] coor_conj:LIS_CLAUSE]

Un ejemplo de las convenciones para mejorar la capacidad expresiva de la gramática y que permitirá tener una formulación más compacta, es la alternancia. En el siguiente ejemplo, el separador en las oraciones puede ser una coma, un punto y coma, dos puntos, etc.:

SEP_O ®  ','  |  ':'  |  ';'  |  '...'  |  '('  |  '-'  |  ')'

Las restricciones más comunes son las que tratan los fenómenos de concordancia y subcategorización. La subcategorización, como ya vimos, es una información que especifica las propiedades de combinación de las palabras. La subcategorización describe los requisitos sintácticos que impone un determinado elemento léxico sobre sus argumentos o complementos. La subcategorización solamente se considera en forma general, mediante reglas que indican la posibilidad de que un verbo tenga objeto directo, objeto indirecto u otros complementos. No se considera en detalle en esta gramática, principalmente por su incapacidad para describirla en relación con cada palabra y con el contexto, además, como indicamos en el capítulo dos, esta información se incluye de una manera adecuada y mucho más completa en los patrones de rección.

En lugar de unificación para los rasgos, explícitamente marcamos las características en las reglas. El poder de la unificación es la ventaja que ofrece en la creación o ingeniería de la gramática, al reducir la inmensa labor de especificarla, es decir, de marcarla. Según datos de Uszkoreit y Zaenen (1996) la especificación de gramáticas grandes de unificación ha tomado alrededor de cuatro años, mientras que el desarrollo de gramáticas anotadas ha sido de ocho a doce años. Nosotros especificamos la concordancia en una forma general, y un módulo de programación que desarrollamos la expande con las restricciones de rasgos. Por lo que, aunque no es muy detallada, permitió que su elaboración se realizara en un tiempo mucho más corto.

La concordancia, al igual que la subcategorización, es difícil de expresar en gramáticas independientes del contexto, debido a que estas características implican dependencia del contexto. Por ejemplo, hay que conocer las características del sujeto y del verbo principal para determinar si están en concordancia, es decir, se necesita consultar la información de varios constituyentes.

La solución que aplicamos para la concordancia es especificarla directamente en las reglas. Por ejemplo, la siguiente regla para el grupo de determinantes (DETER) abarca los determinantes (DET) como esta, su, etc., y los artículos (ART) como el, un, etc.:

DETER(nmb,gnd)

         ® DET(nmb,gnd)

         ® ART(nmb,gnd)

Estas dos reglas las convertimos automáticamente en ocho reglas, ya que nmb representa el rasgo de número que tiene dos valores: singular y plural, y gnd representa el rasgo género que tiene los valores: femenino y masculino. De la misma forma se modifican las reglas para incluir el número de persona en los grupos verbales y en los grupos nominales. La concordancia afecta únicamente el lado derecho de las reglas.

Aunque de esta forma tenemos un gran número de reglas, conseguimos disminuir la generación en exceso, además de que no es necesario escribir todas las reglas, por el proceso automático que las expande. Por ejemplo, en la siguiente regla el sustantivo (N) y el grupo del adjetivo (AP) deben concordar en género y número, en todas sus posibilidades. Para indicar que no se requiere la concordancia se escriben variables diferentes: nmb2, gnd1, etc.

NOM(nmb,gnd,pers) ® @:N(nmb,gnd,pers) mod:AP(nmb,gnd)

En el compendio de reglas gramaticales independientes del contexto consideramos como punto principal especificar un conjunto de reglas que permitieran tener la mayor cobertura posible sin reconocer oraciones incorrectas del español. Como ya explicamos en la sección anterior, esto representa un conflicto. Nosotros optamos por asignar prioridades, de tal manera que sólo se consideren las reglas que no son muy generales en caso de que no se pueda analizar con las reglas de mayor prioridad.

Estas reglas que consideramos no generales, y que ocasionan errores en una mayor cantidad de oraciones, se refieren a casos como el de grupos nominales. Por ejemplo, modelo Granada (refiriéndose a un modelo de automóvil), plan castración, pilas botón, etc., para analizarlos correctamente se requiere aumentar el conjunto de reglas con la siguiente regla, donde no se unifican los rasgos:

(20) NP(nmb, gnd) ® @:NP(nmb, gnd) NOM(nmb1, gnd1)

es decir, se eliminaría la concordancia, lo que equivaldría, por un lado, a permitir concordancia incorrecta en los casos que por error se presentaran, o, por otro, a cometer errores en la ocurrencia de elementos disjuntos (por ejemplo: trasladaron a las pantallas fenómenos sociales, pusieron en el escenario rosas rojas). Así que dimos una prioridad muy baja a esta regla. Las prioridades aparecen entre paréntesis al inicio de cada regla, por omisión la probabilidad es cero, que es la más alta prioridad.

En las siguientes secciones mostramos detalladamente la gramática independiente del contexto que compilamos para el español.

4.2.5.1 Signos convencionales de la gramática

Prioridades de las reglas

0                             : la mayor prioridad (construcciones sencillas)

5 a 15                      : construcciones complejas

20                           : la menor prioridad (grupo del sustantivo sin concordancia)

Categorías gramaticales

ADJ                       : adjetivo

ADV                      : adverbio

ADVP                   : grupo adverbial

AP                         : grupo del adjetivo

AUX                      : verbo auxiliar

BEG_S                   : puntuación inicio oración

CIR                        : complementos circunstanciales

CLAUSE               : cláusula

CLAUSIN              : cláusula sin circunstanciales

CONJ_C                : conjunciones coordinantes

CONJ_SUB           : conjunciones subordinantes

DETER                  : determinante

END_S                  : signos de puntuación al final oración

GER                       : gerundio

INFP                      : grupo del verbo en infinitivo

LIS_CLAUSE        : lista de cláusulas

LIS_NP                 : lista de grupos nominales

LIS_PP                  : lista de grupos preposiciones

CONJ                    : conjunciones

N                           : sustantivo

N_TIE                   : sustantivo (descriptor semántico de tiempo)

NOM                     : grupo nominal sin determinante

NOM_TIE             : lo mismo, con descriptor semántico de tiempo

NP                         : grupo nominal

NP_TIE                 : lo mismo, con descriptor semántico de tiempo

NUM                     : numeral

PART                    : participio

PP                         : frase preposicional

PPR                       : pronombre

PPR_C                  : pronombre acusativo y dativo

PPR_D                  : pronombre demostrativo

PPR_ID                 : pronombre indefinido

PPR_N                  : pronombre ordinal

PPR_IT                 : pronombre interrogativo

PPR_PE                : pronombre personal

PPR_PO                : pronombre posesivo

PPR_R                  : pronombre relativo

PR                         : preposición

S                            : oración completa de entrada

SEP_O                   : signo de puntuación dentro de la oración

VERB                    : verbo

VIN                       : verbo en indicativo

VCO                      : verbo en condicional

VSJ                        : verbo en subjuntivo

VP                         : grupo verbal finito

VP_DOBJ             : objeto directo del verbo finito

VP_INF                  : grupo del verbo en infinitivo para no auxiliares

VP_INF_DOBJ     : objeto directo del infinitivo

VP_INF_OBJS      : secuencia de otros objetos del infinitivo

VP_MODS            : modificador del verbo

VP_OBJS              : secuencia otros objetos del verbo finito

VP_V                    : núcleo del grupo verbal

V_INF                   : núcleo del grupo del infinitivo

Títulos de relaciones y de parámetros

adver                      : relación adverbial

cir                           : relación circunstancial

comp                      : relación completiva

coord_conj              : relación coordinada o conjuntiva

det                          : relación determinativa

dobj                        : relación objeto directo

gnd                         : parámetro de género

mean                      : parámetro de clasificación de verbo (modal o aspectual)

mod                        : relación modificadora

nmb                        : parámetro de número

pers                        : parámetro de persona

pred                        : relación predicativa

prep                        : relación prepositiva

subj                         : relación de sujeto

subor                      : relación de subordinación

4.2.5.2 Reglas de la gramática

® [BEG_S] @:LIS_CLAUSE END_S

# una o más CLAUSE

LIS_CLAUSE

® [coor_conj:CONJ] @:CLAUSE [SEP_O coor_conj:LIS_CLAUSE]

     # ella dice, ella hace

® coor_conj:LIS_CLAUSE [SEP_O] @:CONJ [SEP_O] coor_conj:LIS_CLAUSE            # y  ella busca ...

® @:LIS_CLAUSE coor_conj:LIS_CLAUSE

# cuando llegaron el hecho estaba consumado

CLAUSE

® [coor_conj:CONJ] @:CLAUSIN

® @:CLAUSE [SEP_O] cir:CIR

# El investigador descubre algunas cosas, de vez en cuando ....

® cir:CIR [SEP_O] @:CLAUSE

#  Entre semana, por decisión del jefe, están restringidos

CLAUSIN

® [subj:LIS_NP(nmb,gnd,pers)] @:VP(nmb,pers,mean)

#  El investigador descubre algunas cosas

® [subj:LIS_NP(nmb,gnd,pers)] [SEP_O] [adver:ADVP [SEP_O]] @:VP(nmb,pers,gnd,AUX)

Los sobres, comúnmente blancos, son ahora membretados

® subj:LIS_NP(nmb,gnd,pers) SEP_O [adver:ADV [SEP_O]] @:VP(nmb,pers,mean)

# El investigador, frecuentemente descubre algunas cosas

SEP_O ® ',' | ':' | ';' | '...' | '(' | '"' | '-' | ')'

END_S ® '-'| ')'| '!'| '"'| '?'| '.'

BEG_S ® '-' | '¿' | '¡'

CONJ

® CONJ_C                                                        # y, o, sino, pero

® CONJ_SUB                                                   # si, porque sea, ya

(10) ® @:CONJ_C CONJ_SUB                         # sino porque

® '...'

GERP

® @:GER                                                          # caminando

® @:GER dobj:NP(nmb,gnd,pers) [obj:PP]

     # brincando una barda

® @:GER obj:LIS_PP [dobj:NP(nmb,gnd,pers)]

# caminando por el patio

LIS_GERP

® @:GERP [',' coord_conj:GERP]

     # caminando, corriendo

® LIS_GER  @:CONJ coord_conj:GERP

# caminando, corriendo y saltando

CIR

® @:ADVP

     # mal, durante meses

® [mod:’todo’ @:NP_TIE(nmb,gnd,pers)             # toda esta semana

® @:PR prep:NP_TIE(nmb,gnd,pers)                  # y a los dos días

® @:PR prep:HACE_TIE

     # desde hace una semana

® @:LIS_GERP

     #  ... y maquinando trastadas en grupo

® @:LIS_PP [mod:ADV]

En Okinawa, a finales de la segunda guerra, cuando...

(20) ® @:LIS_NP(nmb,gnd,pers)

# Dos edificios antes, junto a una tienda, venden...

HACE_TIE ® @:'hacer' NP_TIE(nmb,gnd,pers)

LIS_NP(nmb,gnd,pers) ® @:NP(nmb,gnd,pers)

LIS_NP(PL,gnd,pers)

® @:NP(nmb,gnd) ',' coord_conj:LIS_NP(nmb1,gnd1)

# bajo, gordo, rechoncho

® LIS_NP(nmb1,gnd1) @:CONJ coord_conj:NP(nmb,gnd)

la mezquindad, el afán crítico, y la envidia de sus semejantes

(10) ® LIS_NP(nmb1,gnd1,pers1) @:CONJ &coor_conj:PP

#  la mezquindad, el afán crítico, y hasta la envidia

NP(nmb,gnd,pers)

® [det:DETER(nmb,gnd)] @:NOM(nmb,gnd,pers)

#los científicos americanos

® @:PPR_ID(nmb,gnd,pers) [prep:PP]

     # muchas | muchas de ellas

® @:PPR_IT(nmb,gnd,pers) [prep:PP]

     # quién | quién de ellas

® @:PPR(nmb,gnd,pers)                                     # ella

® [det:DETER(nmb,gnd)] @:'cual'

     # lo cual | las cuales

® [det:DETER(nmb,gnd)] @:PPR_PO(nmb,gnd,pers)

# lo suyo | las suyas

® [det:DETER(nmb,gnd)] @:PPR_N(nmb,gnd,pers)

     # la primera

® mod:'todo' @:NP(nmb,gnd,pers)

     # todos los mercados

® '“' @:NOM(nmb,gnd,pers) '”'                           # "feliz"

(10) ® &det:DETER(nmb,gnd) @:N(nmb,gnd,pers)  pred:PP  &comp:AP(nmb,gnd,pers)

# un libro de cuentos desgastado por los año

® [&det:DETER(nmb,gnd)] @:NOM(nmb,gnd,pers) [','] pred:LIS_PP [',']

# el primer día de sol y de viento

® @:DETER(nmb,gnd) pred:PP                             # el de las rosas

® mod:AP(nmb,gnd) @:NOM(nmb,gnd,pers)

# amplias zonas de árboles

(5) ® det:DETER(nmb,gnd) @:AP(nmb,gnd)  [pred:PP]  # el rojo

(20) ® @:NOM(nmb,gnd,pers) mod:NOM(nmb1,gnd1,pers1)

     # pilas botón

NOM(nmb,gnd,pers)

® [num:NUM(nmb)] @:N(nmb,gnd,pers)             # 5000 años

® @:N(nmb,gnd,pers) [','] mod:AP(nmb,gnd) [',']

# noticiario, televisivo,

® mod:AP(nmb,gnd) @:N(nmb,gnd,pers)             # alguna galaxia

® @:N(nmb,gnd,pers)  pred:PP                           # aceite de oliva

(15) ® @:N(nmb,gnd,pers) comp:N(nmb,gnd,pers) [mod:AP(nmb,gnd)]        # tiempos más lejanos

® mod:AP(nmb,gnd) @:N(nmb,gnd,pers) mod:AP(nmb,gnd)

# única mano válida

® NUM(nmb)                                                    # 5000

® INFP # comprar una torta, beber un jarrito y escuchar rock

PPR(nmb,gnd,pers)

® PPR_D(nmb,gnd,pers)                                    # éste | éstos

® PPR_PE(nmb,gnd,pers)                                   # ello | él

® PPR_R(nmb,gnd,pers)                                     # cuya | mismo

DETER(nmb,gnd)

® DET(nmb,gnd)                                                # aquel

® ART(nmb,gnd)                                                # el, un

AP(nmb,gnd)

® @:ADJ(nmb,gnd) comp:ADJ(nmb,gnd)

# antitelevisiva tradicional

® @:ADJ(nmb,gnd) adver:ADV

     # racial extremadamente

® mod:ADV @:ADJ(nmb,gnd)                            # muy feliz

® @:ADJ(nmb,gnd) [',' comp.:AP(nmb,gnd)]       

# racial, sexual o física

® AP(nmb,gnd) @:CONJ coor_conj:ADJ(nmb,gnd)

# vertical u horizontal

® @:ADJ(nmb,gnd) pred:LIS_PP                        # lleno de ...

PP

® @:PR prep:LIS_NP(nmb,gnd,pers)                  # de la tal señora

® @:QUE

® @:PR prep:QUE                       # de que se enojaba

® @:PR prep:INFP                      # de caminar una hora

(10) ® @:PR prep:CLAUSE         # de no se que señora

QUE

® @:'que' prep:CLAUSE                                    #  que se enojaba

® @:'que' prep:NP(nmb,gnd,pers)                        # que la señora

LIS_PP

® @:PP [',' coord_conj:LIS_PP]

# en noticiarios televisivos, en diarios, en  ..

® LIS_PP @:CONJ coord_conj:PP

al patio trasero y a la escalera

(30) ® @:CONJ coord_conj:PP ','

# ni en espectáculos, ni en conseguir que.....

ADVP

® ADV                                                              # bueno | malo

® @:PR adver:ADV  [mod:ADV]                       # por atrás

® @:ADV comp:NP_TIE(nmb,gnd,pers1)           # durante meses

® @:ADV mod:ADJ(nmb,gnd)                            # tanto mejor

® @:HACE_TIE                                                # hace un año

® @:ADV adver:ADV                                       # incluso más

(10) ® @:ADV comp:NP(nmb,gnd,pers) comp:QUE_NP   

# más bajo que alto

® @:ADV mod:PP                                             # incluso de día

(10) ® @:PP                                                      # a decir verdad

(10) ® @:ADV comp:NP(nmb,gnd,pers)              # como un rosario

(20) ® @:ADJ                                                    # feliz

QUE_NP

® @:'que' prep:NP(nmb,gnd,pers)

     # que aquel hombre

NP_TIE(nmb,gnd,pers)

® [[mod:’todo’] det:DETER(nmb,gnd)] @:NOM_TIE(nmb,gnd,pers)           # todo el día

® det:DETER(nmb,gnd) @:NOM_TIE(nmb,gnd,pers) prep:PP

# el día de la bandera

NOM_TIE(nmb,gnd,pers)

® cuant:NUM(nmb) [mod:AP(nmb,gnd)] @:N_TIE(nmb,gnd,pers) [mod:AP(nmb,gnd)]

     #  dos largos años grises

N_TIE(nmb,FEM,3PRS)

® @:'semana'| @:'hora' | @:'mañana' | @:'tarde' | @:'noche'

N_TIE(nmb,MASC,3PRS)

® @:'día'| @:'año'| @:'mes'| @:'ayer'| @:'siglo'| @:'minuto'| @:'milenio'| @:'decenio

® @:'lunes'| @:'martes'| @:'miércoles'| @:'jueves'| @:'sábado'| @:'domingo'

® @:'febrero'| @:'enero'| @:'marzo'| @:'abril'| @:'mayo'| @:'junio'

® @:'julio'| @:'agosto'| @:'septiembre'| @:'octubre'| @:'noviembre'| @:'diciembre'

VP_MODS

® ADVP

® @:LIS_GERP

VP(nmb,pers,gnd,AUX)

® [clit:PPR_C(nmb1,gnd1,pers1)] @:VERB(nmb,pers,AUX) [mod:ADV] [dobj_suj:NP(nmb,gnd,pers)]

era pariente de ...

® [clit:PPR_C(nmb1,gnd1,pers1)] @:VERB(nmb,pers,AUX) [mod:ADV] dobj:AP(nmb,gnd)           # es fatal

® @:VERB(nmb,pers,AUX) [mod:ADV]  dobj:N(nmb,gnd,pers) obj:PP

     hay vida en alguna...

® @:VERB(nmb,pers,AUX) [mod:ADV] obj:PP dobj:N(nmb,gnd,pers)

hay en algún lugar una escuela...

VERB(nmb,pers,AUX)

® VIN(nmb,pers,AUX)| VCO(nmb,pers,AUX)| VSJ(nmb,pers,AUX)

®  [clit:PPR_C(nmb1,gnd1,pers1)] @:'haber' [adver:ADVP] PART(SG,MASC,AUX) PART(nmb,gnd)

     # le había sido visto

® @:'haber' aux:NP(nmb,gnd,3prs)                      # había testigos

VP(nmb,pers,mean)

® VP_DOBJ(nmb,pers,mean)

® VP_OBJS(nmb,pers,mean)

VP_DOBJ(nmb,pers,mean)

® @:VP_OBJS(nmb,pers,mean) obj:LIS_NP(nmb1,gnd1,pers1)

#  clavaban sus dardos

® @:VP_DOBJ(nmb,pers,mean) comp:LIS_PP

# trasladó su fábrica a la frontera

® @:VP_DOBJ(nmb,pers,mean) mod:VP_MODS

# ordenó una fila moviendo las sillas

SUJ_DOBJ

® @:'al' prep:NP(nmb,gnd,pers)

® @:'a' prep:NP(nmb,gnd,pers)

® @:NP(nmb,gnd,pers)

VP_OBJS(nmb,pers,mean)

® [adver:ADV] @:VP_V(nmb,pers,mean) [mod:VP_MODS]

# provocaban en su mente

® [adver:ADV] @:VP_V(nmb,pers,mean) [obj:LIS_PP]

# salieron del corral

® @:VP_OBJS(nmb,pers,mean) obj:LIS_PP

#  clavaban sus dardos por todo el cuerpo

® @:VP_OBJS(nmb,pers,mean) mod:VP_MODS

# jugaban el último partido provocándose a cada momento

VP_V(nmb,pers,mean)

® [clit:PPR_C(nmb1,gnd1,pers1) [clit:PPR_C(nmb2,gnd,pers2)]] @:VP_SV(nmb,pers,mean)

     # se les llamase, se les haya dicho

VP_SV(nmb,pers,mean)

® @:VERB(nmb,pers,mean)                               # creo

® @:'haber'(nmb,pers) [adver:ADVP] PART(SG,MASC)

# habían incluso dudado

® @:'estar' [&adver:ADVP] AP(nmb,gnd)          # estaba contento

® @:'estar'(nmb,pers) [adver:ADVP] PART(nmb,gnd)

# está mal visto

® @:'ser'(nmb,pers) [adver:ADVP] PART(nmb,gnd)

# es folicularmente handicapado

PPR_PE(nmb,gnd,3PRS) (10) ® 'usted'

VERB(nmb,pers,mean)

® VIN(nmb,pers,mean) | VCO(nmb,pers,mean) | VSJ(nmb,pers,mean)

PPR_PE(nmb,gnd,3PRS) ® 'usted'

INFP

® @:VP_INF [SEP_O coord_conj:INFP]            # cantar, reír

® INFP @:CONJ coord_conj:VP_INF                # vivir y morir

® [adver:ADV] @:V(INF,AUX) [adver:ADV] # morir también

VP_INF

® @:VP_INF_DOBJ

     # convertir la bandera de los rayos en oficial

® @:VP_INF_OBJS                                          # ir a la cárcel...

VP_INF_DOBJ

® @:VP_INF_OBJS [','] dobj_suj:SUJ_DOBJ [dobj_suj:SUJ_DOBJ]

     # dar su consentimiento

® @:VP_INF_DOBJ [','] obj:LIS_PP

#  introducir unos centímetros en su interior

® @:VP_INF_DOBJ [','] mod:VP_MODS

# decir una palabras negando su sentir

VP_INF_OBJS

® @:V_INF

     # esperar pacientemente

® @:VP_INF_OBJS [','] obj:LIS_PP                  # marchar hasta ...

® @:VP_INF_OBJS [','] mod:VP_MODS

     # marchar torciendo ...

V_INF

® [adver:ADV] @:V(INF,mean) [adver:ADV] # no estar hoy

® [adver:ADV] @:'haber'(INF) [adver:ADV] PART(SG,MASC) [adver:ADV]

#  no haber presentado puntualmente, habían siempre quedado..

® [adver:ADV] @:'ser'(INF) [adver:ADVP] PART(nmb,gnd) [adver:ADV]           # ser entrevistada

4.2.6       Algoritmo de transformación de árboles de constituyentes en árboles de dependencias

4.2.6.1 Condiciones de transformación

La más importante de las mejoras introducidas en las gramáticas independientes del contexto (GPSG, HPSG) es la marca del elemento rector. Esta marca permite transformar, mediante un algoritmo, el árbol de constituyentes a un árbol simple de dependencias. Esta transformación permitirá simplificar la labor de identificación de valencias, tanto para el analizador sintáctico general como para la compilación de los patrones de rección (que se describe en el siguiente capítulo). Por ejemplo, en la siguiente regla para un grupo nominal, el sustantivo es el elemento rector.

NOM(nmb,gnd,pers) ® @:N(nmb,gnd,pers) Adj(nmb,gnd)

Dos conceptos son importantes en esta transformación.

La primera consideración inevitable para esta transformación es la suposición de que todas las oraciones sujetas al análisis son proyectivas. Mel’čuk (1988) indica que existen oraciones que no son proyectivas pero que todas ellas de alguna manera están marcadas de forma enfática, estilística, comunicativa o contienen elementos sintácticos especiales.

La proyectividad[29] es una propiedad del orden de palabras. Una oración se dice proyectiva si y solo si entre los arcos de dependencia que enlazan sus formas de palabras:

a)      Ningún arco atraviesa a otro arco.

 

b)      Ningún arco cubre el nodo tope.

 

Un ejemplo de frase que viola la proyectividad es: el mejor poeta del mundo.

 

En las gramáticas independientes del contexto la proyectividad es estricta, es decir, es propiedad inalienable. La misma restricción se presenta también en algunos sistemas de análisis sintáctico basados en dependencias (Sleator y Temperley, 1993; Eisner, 1996). Así que nuestra consideración no es arbitraria.

La segunda consideración inevitable es que, teniendo en cuenta la regla anterior, para transformar su árbol de constituyentes tomamos el elemento rector como nodo raíz y todos los nodos hijos restantes del elemento izquierdo de la regla como dependientes directas de él. Cada constituyente con n hijos contribuye con – 1 dependientes.

Esto significa que podemos usar reglas con un solo núcleo, por ejemplo del tipo:

PP ® @:PR  N     y    CLAUSE ® @:V  NP

donde PP es una frase preposicional, PR es una preposición, CLAUSE es una oración, V es un verbo y NP es un grupo del sustantivo. Los núcleos se marcan con el símbolo @. Estas reglas cumplen con la Forma Normal de Chomsky, que se detalla en la sección 4.3. En cambio, no es posible usar reglas del tipo:

CLAUSE ® @:V  @:PR  N

donde N depende de PR y todo este grupo depende de V.

Estas dos consideraciones son necesarias y suficientes para hacer la transformación de árboles de dependencias en árboles de constituyentes. Ambos formalismos, dependencias y constituyentes, describen el mismo lenguaje, aunque las transformaciones no son de uno a uno. Pero el hecho de que un árbol de dependencias represente a varios árboles de constituyentes no viola la consideración de que se trata del mismo lenguaje. Después de la transformación se pueden identificar las estructuras iguales. Considerando restricciones no muy estrictas, cada gramática de constituyentes tiene una gramática de dependencias propia. Con esta condición, podemos tomar cualquier gramática para estudios teóricos y prácticos.

La indicación de sentido de las flechas, es decir, la marca de dependencia, se define con las etiquetas que establecen las relaciones. Estas etiquetas son de modificación (mod), prepositivas (prep), etc.

4.2.6.2 Algoritmo básico de transformación

En el algoritmo de transformación de un árbol de constituyentes en uno de dependencias, se recorre el árbol de constituyentes en un orden determinado, mediante un recorrido en profundidad. Empieza en la raíz y visita recursivamente a los hijos de cada nodo en orden de izquierda a derecha. Una vez que llega a nodos cuyos hijos cubren terminales, por ejemplo N(PL,FEM,3PRS) ® *NCFP000, asigna un nodo del árbol de dependencias al terminal del elemento rector, y enlaza a los hermanos en el árbol de constituyentes como dependientes del nodo previamente definido en el árbol de dependencias.

Para cada uno de los nodos dependientes se traslada su marca de dependencia para indicar la flecha de esa dependencia. El nodo superior del nodo de constituyentes se asigna como nodo superior del nodo rector definido en el árbol de dependencias, y se elimina el nodo de constituyentes. De esta forma, se va convirtiendo el árbol de constituyentes en uno de dependencias en forma ascendente. El último paso corresponde al enlace del nodo rector en el tope del árbol de constituyentes, ya que convierte al nodo raíz en un nodo que cubre terminal, por lo que se detiene el proceso. En la figura 14 mostramos el algoritmo recursivo desarrollado.

Convertir_a_dependencias

Para cada hijo q, del nodo n (del árbol de constituyentes) que no cubre un terminal, de izquierda a derecha, hacer lo siguiente:

     Convertir_a_dependencias

     Asignar el nodo m (del árbol de dependencias) al elemento rector de los hijos del nodo n

     Para todos los hijos del nodo n (que no sean el elemento rector) hacerlos dependientes de m

     Trasladar las marcas de dependencias

     Asignar como nodo superior de m al mismo nodo superior de n y eliminar el nodo n

Figura 14. Algoritmo de transformación de un árbol de constituyentes a uno de dependencias

Como ejemplo de esta transformación presentamos la transformación de una frase del corpus LEXESP. En la figura 15 se aprecia la representación que del árbol de constituyentes obtenemos con nuestra gramática generativa para la frase Los alumnos solicitaron becas al director. Con sangrías en el texto se marcan las agrupaciones. Los números de la izquierda corresponden a un número de orden alfabético de las reglas de la gramática. Las reglas que en la parte derecha sólo tienen un terminal entre paréntesis y asterisco inicial, como PR ® <*SPCMS>, indican, al final la palabra, que representan tanto la cadena de entrada como la forma base, por ejemplo: (solicitaron: solicitar).

 

2:

7120        S ® @:CLAUSE $PERIOD

12576      CLAUSE ®  (subj) NP(PL,MASC,3PRS) @:VP_DOBJ(PL,3PRS,MEAN)

6924        NP(PL,MASC,3PRS) ®  (det) ART(PL,MASC) @:N(PL,MASC,3PRS)

307          ART(PL,MASC) ® <*TDMP0> (Los: el, 0/0)

174          N(PL,MASC,3PRS) ® <*NCMP000> (alumnos: alumno, 1/0)

26765      VP_DOBJ(PL,3PRS,MEAN) ® @:VP_DOBJ(PL,3PRS,MEAN)  (mod) PP

23435      VP_DOBJ(PL,3PRS,MEAN) ® @:VIN(PL,3PRS,MEAN)  (obj) N(PL,FEM,3PRS)

398          VIN(PL,3PRS,MEAN) ® <*VMIS3P0> (solicitaron: solicitar, 2/0)

170          N(PL,FEM,3PRS) ® <*NCFP000> (becas: beca, 3/0)

16763      PP ® @:PR  (prep) N(SG,MASC,3PRS)

301          PR ® <*SPCMS> ( al: al, 4/1)

175          N(SG,MASC,3PRS) ® <*NCMS000> (director: director, 5/0)

142          $PERIOD ® <*Fp> (.: ., 6/0)

 

Figura 15. Análisis sintáctico de constituyentes para la frase:
Los alumnos solicitaron becas al director


El árbol de constituyentes es la variante número 2 que obtuvimos con la siguiente entrada del corpus LEXESP:

Los alumnos solicitaron becas al director.

Los (0) el (*TDMP0) (0) él (*PP3MP000) (1) lo (*NCMP000) (2) los (*NP0000) (3)

alumnos (1) alumno (*NCMP000)  (0)

solicitaron (2) solicitar (*VMIS3P0)  (0)

becas (3) beca (*NCFP000)  (0)

al (4) al (*NP00000)  (0) al (*SPCMS)  (1)

director (5) director (*NCMS000)  (0) director (*NP00000)  (1)

. (6) . (*FP)  (0)

Entre paréntesis se presentan las marcas morfológicas codificadas de acuerdo al código parole empleado para el proyecto EURO WORDNET (Rodríguez et al., 1998). El primer número entre paréntesis corresponde al número de palabra en la oración de entrada, y los siguientes paréntesis con números corresponden a la numeración de diferentes marcas morfológicas. El asterisco marca su condición de terminal, es decir, de palabra de entrada.

En la figura 16 presentamos la estructura de dependencias, la representación obtenida con nuestra gramática generativa pero en forma gráfica, esta estructura la obtenemos con el algoritmo desarrollado a partir de la estructura de constituyentes.

Figura 16. Análisis sintáctico de dependencias para la frase
Los alumnos solicitaron becas al director

4.3          Analizador basado en constituyentes y unificación

El algoritmo empleado para realizar el análisis sintáctico con las reglas ponderadas relaciona cadenas de símbolos con el conocimiento lingüístico almacenado en las reglas y con el diccionario de palabras marcadas. Este algoritmo es el mecanismo computacional que infiere la estructura de las cadenas de palabras a partir del conocimiento almacenado.

Un algoritmo de análisis sintáctico de este tipo es un procedimiento que prueba diferentes formas de combinar reglas gramaticales para encontrar una combinación que genere un árbol que represente la estructura de la oración de entrada para su interpretación correcta. Durante el procesamiento de los datos se crean muchas estructuras temporales, las estructuras finales son el resultado del análisis. Los algoritmos de análisis sintáctico más empleados por su eficiencia se basan precisamente en gramáticas independientes del contexto.

Los algoritmos deciden qué reglas probar y en qué orden, para lo cual combinan diferentes estrategias y estructuras temporales. Existen diferentes estrategias para este proceso: dirigido por las hipótesis o por los datos, procesamiento secuencial o paralelo, análisis determinista o no determinista. Las estructuras están relacionadas directamente con las estrategias empleadas.

El análisis sintáctico dirigido por las hipótesis o por la gramática es conocido también como descendente. Busca primero en la gramática las reglas y va construyendo estructuras hasta completar las palabras de la secuencia de entrada. Va construyendo estructuras desde el símbolo inicial S correspondiente a la oración, hacia abajo, hasta encontrar la secuencia de palabras de la entrada. El análisis sintáctico dirigido por los datos es conocido como ascendente, e inicia con las palabras de la secuencia de entrada para ir encontrando las reglas cuya parte derecha contiene esas combinaciones de palabras adyacentes. Va construyendo estructuras hacia arriba hasta llegar al símbolo inicial que representa a la oración.

El procesamiento secuencial prueba una opción hasta el final, y si falla, regresa a puntos anteriores del proceso e incluso hasta el punto inicial. El procesamiento paralelo prueba diferentes posibilidades al mismo tiempo. Mientras el primero opera en una sola computadora, el segundo requiere procesamiento paralelo. Existen procesos que podrían considerarse intermedios entre éstos. Por ejemplo el pseudo paralelismo (Tomita, 1986), que a partir de determinados puntos del proceso prueba diferentes opciones en secuencia y continúa hasta resolver el conflicto. Los algoritmos para el procesamiento paralelo son más complejos y difíciles de escribir, además de que requieren grandes cantidades de tiempo de cálculo, por lo que se han empleado escasamente.

El análisis determinístico sigue siempre un solo camino, mientras que el no determinístico tiene que elegir, en algunos puntos, diferentes caminos. Los algoritmos determinísticos son más eficientes aunque más limitados, ya que no presentan opciones. El que los algoritmos sean determinísticos o no determinísticos depende de la gramática y del analizador.

Los métodos ascendentes aprovechan su conocimiento de los elementos léxicos, mientras que los descendentes aprovechan su conocimiento de las reglas gramaticales. Aunque los descendentes tienen la ventaja de considerar el contexto izquierdo, tienen las desventajas de considerar palabras y categorías que no aparecen en la secuencia de entrada y de repetir análisis cuando el mismo símbolo aparece en distintos contextos. Los ascendentes tienen la ventaja de considerar solamente las palabras que aparecen en la cadena de entrada y de construir un análisis parcial de la misma estructura, pero tienen la desventaja de no tener restricciones contextuales, por lo que prueban muchas combinaciones para las que no hay reglas.

Además de la estrategia, que tiene sus ventajas y desventajas, para tener un análisis eficiente un punto muy importante es almacenar los resultados intermedios, así se evita la redundancia en el espacio de búsqueda. Kay (1980) propuso una estructura de datos que remediara esta falla, a la que denominó chart, y que nosotros nombraremos simplemente tabla. Un chart o tabla es una estructura de datos que almacena resultados parciales, de manera que el trabajo no tenga que duplicarse. Lleva el registro de todos los constituyentes derivados en un punto del análisis, así como aquellas reglas que se han aplicado con éxito parcial pero que todavía no se logran completar. Estas estructuras generalmente se han representado mediante arcos. Los arcos activos son aquellos a los que les falta algún constituyente por reconocer. En la figura 17 mostramos la correspondencia entre las representaciones de árbol y de tabla para un grupo nominal.

Figura 17. Representaciones de árbol y de tabla para el grupo nominal El niño pequeño

La operación básica de un analizador sintáctico basado en tabla es combinar un constituyente incompleto con un constituyente ya completo. Por ejemplo un grupo nominal sin modificador posterior con un grupo preposicional complemento de sustantivo. El resultado será entonces un nuevo constituyente (un grupo nominal para este ejemplo) o un nuevo arco activo, que es una extensión del anterior (un grupo nominal al que le sigue faltando un modificador posterior). Todos los constituyentes que están completos se guardan en una lista hasta que son requeridos por el analizador de tabla. Cuando el último arco activo se completa, termina el reconocimiento.

Allen (1995) considera que los analizadores sintácticos basados en tabla son más eficaces que los que se basan solamente en búsqueda ascendente o descendente, debido a que un mismo constituyente nunca se construye más de una vez. Aunque es claro que la eficiencia práctica dependerá de la forma en que se implemente, las estructuras de datos que se empleen, el lenguaje de programación y la máquina específica.

Dadas las restricciones que impone de por sí una gramática independiente del contexto, escogimos este algoritmo de tabla como un analizador eficiente y simple para nuestro objetivo. Uno de los algoritmos ascendentes mejor conocidos por su poder para analizar cualquier gramática independiente del contexto es el algoritmo CKY (Kasami, 1965; Younger, 1967), pero no es eficiente. En cambio, con manejo de tabla es muy conocido por su eficiencia e implementación (Eisner, 1996; Sikkel y Akker, 1993). Para los teóricos la eficiencia se refiere a que en el peor caso requiere un tiempo O(n3), y para una gramática de tamaño fijo requiere un tiempo O(n2) (Kay, 1980), donde n es el número de palabras de la oración.

El algoritmo CKY emplea una gramática en forma especial, la Forma Normal de Chomsky (CNF en inglés). En las gramáticas CNF las reglas de producción son del tipo A ® BC o A ® a. Cualquier gramática independiente del contexto en CNF puede generar un lenguaje independiente del contexto. Para convertir una gramática independiente del contexto a la forma normal de Chomsky se requieren los siguientes pasos:

        Añadir un nuevo símbolo inicial.

        Eliminar todas las reglas con el elemento vacío (e).

        Eliminar todas las reglas de un solo elemento en la derecha (A ® B, A ® A).

        Convertir todas las reglas restantes.

        Introducir auxiliares por terminales (en lugar de A ® d B, introducir A ® Z BZ ® d).

        Introducir auxiliares por no-terminales (en lugar de A ® BCD, introducir A ® B X y X ® CD).

El algoritmo CKY opera de la siguiente forma. Se considera una gramática CNF con k no-terminales, m terminales y n reglas de producción. Para saber si una cadena de entrada puede ser generada por esa gramática, hace lo siguiente: si a[i, j] es una subcadena de la entrada desde la posición i hasta la j (0 < i, j £ n), construye una tabla que diga para cada i y j, cuál símbolo (si existe) genera la cadena a[i, j]. Una vez que tiene la tabla, revisa si el símbolo inicial puede generar la cadena de entrada a[1, n].

La tabla se construye por inducción en la longitud de las subcadenas a[i, j]. Es fácil para subcadenas de longitud 1: A genera a[i, i+1] = a,  si y sólo si existe la regla A ® a en la gramática. Para longitudes mayores se hace una revisión exhaustiva para cada regla de producción. Para la regla A ® BC revisa si existe una k (entre i y j) tal que B genera a[i, k] y C genera a[k+1, j]. Como estas subcadenas son menores que a[i, j] se encuentran ya en la tabla.

El algoritmo CKY se muestra en la figura 18 (Goodman, 1998).

(Boleano) chart [1..n, 1..|N|, 1..n +1] := FALSE

Para todo el conjunto de reglas

        Inicializar  s

        Para cada regla del tipo A ® ws

             chart [s, A, s +1] := TRUE;

Para la longitud l, de la más corta a la más larga

        Para cada una, incializar s

        Para cada una dividir la longitud t

        Para cada regla del tipo A ® BC

             chart [s, A, s + 1] := chart [s, A, s + l ] Ú chart [s, B, s + t ]
                                       
Ù chart [st, C, s + l ] Ù TRUE;

regresa chart [1, S, n +1];

 

Figura 18. Algoritmo de análisis sintáctico ascendente de tabla

La estructura de datos de la tabla es un arreglo booleano de tres dimensiones, donde un elemento chart[i, A, j] es verdadero si existe la derivación A  wi, ... wj-1 , de lo contrario es falso. La línea

chart [s, A, s+1] := chart [s, A, s+ l] Ú chart [s, B, s + t] Ù chart [s + tC, s + l] Ù TRUE;

indica que si existen A ® BC y B  ws, ... ws + t 1  y C ws + t, ... ws + l – 1 , entonces A  ws, ... ws + l – 1.

Una vez que se han revisado las extensiones de longitud uno, se pueden revisar las extensiones de longitud dos y así sucesivamente. En la figura 18 el ciclo abarcador es el ciclo de longitudes, de la más corta a la mayor. Los tres ciclos interiores examinan todas las posibilidades: de combinaciones, de las posiciones de inicio, de las separaciones de longitudes y de las reglas.

Los árboles se obtienen modificando el algoritmo de reconocimiento para llevar el registro de los apuntadores de retroceso para cada arco que se va produciendo.

4.4          Los patrones de rección avanzados, un método alternativo

Como se expuso en la sección 1.2 y en la sección anterior, las descripciones de la estructura superficial en la MTT están orientadas a los seres humanos. Aunque toda la información de los PR es necesaria, no debemos imponer la estructura del formalismo ya que para nosotros la finalidad de su uso es el procesamiento lingüístico de textos por computadora. Además, la estructura de los patrones de rección debe modificarse para ayudar a identificar, clarificar y comparar las piezas de su información, con la finalidad de facilitar el diseño de un diccionario de PR, su uso y reuso. Cuando se construye un diccionario, uno de los objetivos es la generalidad del formato, y la posibilidad de una organización de trabajo modular.

En la nueva estructura formal que proponemos, considerando las caracterizaciones del español expuestas en las secciones anteriores, además de modernizar su formato, nos basamos en los sistemas de análisis sintáctico que dan mayor importancia a los diccionarios, donde cada característica se representa dando su nombre y sus valores, con múltiples valores permitidos para cada palabra. La capacidad que hace posible almacenar generalizaciones sintácticas en el diccionario es el sistema de pares de atributo valor (véanse por ejemplo Pirelli et al., 1994; Flickinger, et al., 1985; Marcus et al., 1994).

El sistema de atributo—valor se ha empleado en varios formalismos, especialmente se observa en el formalismo HPSG que utiliza las denominadas matrices de atributo—valor (AVM en inglés). Ejemplos de varias palabras, con esta descripción mediante AVM, se presentaron en la sección 1.2-HPSG.

La nueva estructura la denominamos patrones de rección avanzados (PRA), en primer lugar para evitar el nombre ligado especialmente a la MTT y en segundo para tener un formato orientado a las computadoras.

La información contenida en los PRA corresponde a la expuesta en el capítulo anterior, y a la considerada en el formalismo de la MTT (en la tabla de PR), salvo la indicación de obligatoriedad de la presencia de cada valencia. En un PRA, la indicación de obligatoriedad, las posibles combinaciones de actuantes y las combinaciones prohibidas las hemos considerado de otra forma.

En la figura 19 presentamos la estructura formal y la notación de los PRA. El primer atributo denominado Lexema corresponde a la primera sección de los PR, la palabra encabezado. Su valor corresponde al lexema numerado con un sentido específico y una realización sintáctica particular, por ejemplo querer2.

El segundo atributo, denominado descripción, corresponde a la segunda sección de los PR, la explicación semántica de la situación relacionada a cada verbo específico[30], por ejemplo: person X desires thing Y.

El tercer atributo corresponde a la tercera sección de los PR, la tabla de patrones de rección, donde las realizaciones de las valencias sintácticas se describen recursivamente con una matriz atributo—valor. En cada realización se permiten los siguientes atributos:

        Palabra introductora

        Categoría gramatical

        Tipo semántico

        Peso

Las palabras introductoras son, principalmente, preposiciones simples o complejas, aunque también pueden ser palabras que introducen cláusulas subordinadas, como que, o en el caso de una realización directa con grupo nominal, realmente no está presente. Las categorías gramaticales son de cualquier tipo.

 

Figura 19. Patrones de rección avanzados. Aquí: + denota uno o más elementos; * denota cero o más elementos; ~ denota el verbo


Los descriptores semánticos pueden ser de diversos tipos, nosotros hemos considerado principalmente la animidad y la locatividad. La primera se explicó en forma detallada en la sección 2.2, de la segunda presentamos en un ejemplo de la sección 2.4. La consideración de descriptores semánticos, como locatividad, se ha considerado en trabajos recientes. Bleam et al. (1998) llegan a la conclusión de que para capturar propiedades léxico semánticas, que ayuden a reducir las variantes en el análisis sintáctico, es necesario introducir características de propiedades semánticas. La diferencia entre su trabajo y el nuestro es que ellos definen una clase de preposiciones locativas (no específicas para cada verbo dado) e imponen una restricción en un nodo del árbol elemental[31] para los verbos de movimiento que utilizan esa misma clase. Un punto importante de convergencia es que consideran la necesidad de separar las frases preposicionales cuyo significado está implícito en el verbo, de las demás.

El peso considerado en las realizaciones define las probabilidades de llenado de diferentes valencias. Por ejemplo, en las frases siguientes, la segunda valencia del verbo acusar aparece realizada en tres formas diferentes: como a GN, como pronombre reflexivo y como clítico.

A quienes acusan de comportamiento arrogante.

El fiscal me acusa de delito de alta traición.

Acusándole de ser el sostenedor y portavoz de Mario Segni.

Y cada una de ellas tiene una probabilidad diferente. En los ejemplos siguientes, la tercera valencia del verbo solicitar aparece realizada con diferentes preposiciones introductoras:

Solicitará al seleccionador argentino Alfio Basile la posibilidad de volver a jugar con Argentina.

El Consejo Superior de Deportes solicita de la Subsecretaría del Ministerio de Cultura la designación de dos inspectores técnicos.

Los aficionados solicitaron unos pases con el delegado.

Y de entre estas realizaciones algunas son más frecuentes que otras, es decir, tienen diferentes probabilidades. La obligatoriedad queda implícita en este peso. Si una valencia tiene presencia en todas las oraciones extraídas del corpus para un verbo específico, se considera como una evidencia de obligatoriedad.

El último atributo corresponde a la cuarta sección de los PR, los ejemplos de combinaciones posibles y de las combinaciones no permitidas. Entre las dificultades que se presentan para definir los ejemplos de esta sección se encuentran los siguientes:

        No deben ser aleatorios.

        Se basan en experiencia.

        Se requiere que sean exhaustivos.

Lo que implica que los ejemplos posibles e imposibles se deben describir por personas muy calificadas. Además de esto hay que considerar que el español tiene un orden de palabras más libre que el inglés, pero no totalmente libre, por lo que las posibles combinaciones de valencias son limitadas. A partir de la indicación de obligatoriedad se pueden definir algunas combinaciones no deseadas, pero no la totalidad. Las combinaciones posibles y las prohibidas pueden definirse basándose en cierta experiencia, pero no reflejarían los cambios en el lenguaje ni las preferencias en dominios específicos. Por lo que para adquirir esta información consideramos la obtención de pesos estadísticos.

Para el inglés funciona bien buscar usualmente todos los objetos del verbo después de él. Sin embargo, para el español, la información de posibles posiciones de la valencia es necesaria para el analizador sintáctico. Por ejemplo, en las frases 1, 2 y 3, anteriores, el objeto indirecto no aparece después del verbo, de tres maneras distintas: 1) en la forma a GN antes del verbo, 2) como pronombre reflexivo entre sujeto y verbo, y 3) como clítico dentro del verbo.

Así que, además de la información determinística, incluimos en los PRA información de evaluación, en forma numérica, de probabilidades de diferentes opciones. La información de evaluación incluye:

        Probabilidades de llenado de diferentes valencias.

        Probabilidades del uso de diferentes opciones de la misma valencia.

        Medidas de compatibilidad de varias combinaciones de opciones específicas para diferentes valencias.

Esta información, determinística y probabilística, es muy útil para el procesamiento lingüístico de textos por computadora. Además, tiene uso inmediato en el análisis sintáctico, y en filtros para rechazar resultados intermedios imposibles o no deseados. Por ejemplo, el analizador sintáctico empleará esta evidencia para buscar las valencias aún en enlaces distantes. Si el verbo acusar requiere forzosamente la presencia del objeto directo, con esta indicación el analizador sintáctico buscará este pedazo de información alrededor del verbo, considerando también las probabilidades de su aparición antes y después del verbo.

La obtención de datos estadísticos confiables para evaluación estadística es muy difícil, y aún algunas veces el uso de estimaciones subjetivas previas (inventadas por el investigador) es mejor que la ignorancia total de esa información. Entonces, para compilar los PRA se requiere información sintáctica, estadística y conectada con la semántica. En la parte semántica es necesario incluir la marca de animidad y de locatividad en el corpus. Además, se requiere detectar la llamada atracción léxica (ocurrencia concurrente en estructura sintáctica) entre los verbos y las preposiciones que introducen las valencias y diferenciar las valencias correspondientes a diversos significados del verbo.

En la figura 20 presentamos el PRA del verbo acusar. Ya que no existen diccionarios para el español con información completa de subcategorización, consideramos la información de varios autores. Por ejemplo, Penadés (1994) considera el verbo acusar entre 145 verbos que analizó, con el siguiente esquema sintáctico-semántico:

alguien

acusa

a alguien

de algo

agente puro causativo interno directo

acción causativa intrínseca directa

afectado
especificado

especificación

Entre otros autores, Alonso (1960) muestra algunos ejemplos de empleo: esquema sintáctico-semántico: a alguno al, ante el juez, de haber robado, de los pecados (verbo reflexivo), de lo mal que se ha portado (verbo reflexivo). Nañez (1995) presenta el uso de preposiciones en orden alfabético para construcciones sintácticas; para el autor, el verbo acusar emplea las preposiciones a, ante, de; también muestra algunos ejemplos de uso en la misma forma que Alonso.

Figura 20. Estructura formal para el verbo acusar


Con esta información no es posible llenar completamente los PRA y aún alguna información considerada requerirá comprobación con bases de datos de textos o con la experiencia de recursos humanos calificados. Los campos de los pesos quedan con la marca “¾”, que indica ausencia de datos. En el capítulo cuatro presentamos la adquisición de estos pesos mediante un método automático.



 


 

 

 

Capítulo 5   Compilación de patrones de rección avanzados


En este capítulo presentamos el método de obtención de los objetos de los verbos, de los sustantivos y de los adjetivos del español, es decir, el método de compilación del diccionario de patrones de rección avanzados. Por la cantidad de entradas del diccionario, varios miles, no es posible compilarlo manualmente, más difícil aún es determinar las frecuencias o pesos requeridos usando solamente la intuición lingüística de un hablante nativo

Cuando se dispone de un corpus de textos marcado sintácticamente y desambiguado, es decir, un corpus de textos con marcas de las relaciones sintácticas correctas, no es tan problemático calcular dichos pesos. Sin embargo, estas fuentes no existen para todos los lenguajes ni para todos los tipos de géneros de textos.

Es por eso que aquí presentamos un procedimiento semiautomático para compilar el diccionario de PRA a partir de un corpus de textos. Este método tiene como objetivo primordial estimar los pesos de las combinaciones de los objetos de los lexemas predicativos, con los cuales se construirán los PRA del diccionario principal para la resolución de ambigüedad sintáctica.

En este capítulo presentamos el algoritmo, su aplicación a textos reales y, por último, los resultados obtenidos de su aplicación en el analizador básico.

5.1          Métodos lexicográficos: tradicionales y automatizados

La lexicografía es la actividad cuyo dominio de estudio es la construcción de diccionarios. Un diccionario de una lengua dada es un repertotio del léxico de esa lengua que ofrece una descripción de cada palabra según un patrón relativamente rígido. Los datos proporcionados varían de un diccionario a otro: pronunciación, etimología, definición, ejemplos de uso, etc.

Muchos de los requerimientos generales para definiciones lexicográficas son igualmente aceptables tanto para humanos como para dispositivos automatizados. Las decisiones lexicográficas impecables solamente las logran los lexicógrafos de alto nivel. Pero los especialistas en aplicaciones también logran decisiones de valor si éstas se basan en razonamiento, comparaciones, y experimentos de máquina.

Generalmente, los proyectos lexicográficos han requerido esfuerzos de muy largo aliento, y la participación de especialistas. Con la aparición de la computadora estos proyectos se han acelerado. Sin embargo, tienden a crecer en tamaño, por lo que el diseño y la construcción de diccionarios de varias decenas o centenas de miles de palabras es una tarea que involucra el trabajo de muchas personas durante años, en la especificación, el diseño, la compilación de datos léxicos, la estructuración de la información y el formateo adecuado para su presentación. Por ejemplo, la compilación del Diccionario del español usual en México (DEUM, 1996) tomó varios años, aún cuando emplearon algunas herramientas computacionales de la época (este trabajo se describe en Lara y Ham, 1979; García-Hidalgo, 1979).

El uso del léxico implementado en computadora lleva a una mayor convergencia de la teoría léxica y la práctica lexicográfica, ya que puede proveer información estadística y permite la manipulación de información en forma más rápida, situación que además de facilitar el trabajo del lexicógrafo le permite tomar mejores decisiones. Por ejemplo, Boguraev y Briscoe (1987) implementaron un algoritmo de transducción que toma los códigos gramaticales de LDOCE (Procter et al., 1978) y produce códigos adecuados para otros formalismos gramaticales.

Los métodos lexicográficos manuales requieren de mucho esfuerzo económico y de mucho tiempo. En la compilación de diccionarios por computadora pueden incluirse métodos lexicográficos que realicen algunas de las tareas de los expertos, para reducir el tiempo de análisis (oración por oración) de un corpus de textos. Por ejemplo, en forma de herramientas (Chodorow et al., 1987).

Los métodos automatizados proporcionan estadísticas de experimentos que constituyen una herramienta muy poderosa y que no era accesible para los lexicógrafos clásicos. Estos métodos reducen el tiempo de trabajo de los expertos y permiten que una persona, sin ser experto lexicógrafo, pueda discriminar la información proporcionada para realizar las definiciones lexicográficas.

El método que proponemos para la compilación del diccionario de Patrones de rección proporciona estadísticas de las combinaciones de subcategorización. Estas estadísticas representan las combinaciones que nuestro método selecciona y clasifica de acuerdo a su aparición en las variantes correctas del análisis sintáctico. Con esta información en una herramienta, los especialistas en aplicaciones realizan comparaciones que, aunadas a su conocimiento lingüístico, determinan las asociaciones de las combinaciones de subcategorización con sus respectivos actuantes.

5.1.1       Métodos tradicionales de compilación de diccionarios

La lexicografía es una rama de la lingüística aplicada que tiene como finalidad el diseño y la construcción de bases de datos léxicas (diccionarios, enciclopedias) para el uso práctico de los seres humanos y de sistemas tecnológicos. También se relaciona con su adecuación a cometidos generales o específicos y con el acopio de los recursos teóricos necesarios para alcanzar estos fines.

Los métodos lexicográficos difieren dependiendo de los objetivos y las fuentes de información. Por ejemplo, un diccionario clásico puede tener las siguientes características de representación durante el proceso de desarrollo lexicográfico: 1) un formalismo de estructuras de campos como bases de datos para entradas léxicas, con referencias cruzadas a otros campos; 2) un número de notaciones, para diferentes campos o para léxico diferente basado en la misma base de datos lexicográfica; y 3) varias implementaciones (como bases de datos). Pero para construir un diccionario clásico con base en un corpus de textos se requieren varios pasos adicionales (Gibbon, 1999):

1           Adaptación de conjuntos de caracteres, de estructuras de registros, etc. a los requerimientos del marco de trabajo del lexicógrafo.

2           Identificación de las unidades estructurales más pequeñas del texto de entrada, palabras, y resolución de elementos codificados (datos, abreviaturas, etc.)

3           Identificación de las formas de palabra completamente flexionadas que aparecen en el contexto del corpus, que servirá como fuente de información.

4           Especificación de la microestructura: definición de la estructura de los atributos, de la estructura del registro de la base de datos, etc., para los tipos de información léxica que se requiere.

5           Extracción de información:

(a) análisis estadístico, en sus diferentes variantes (frecuencia de las palabras, frecuencia de pares de palabras, frecuencia de colocaciones, estimación de la probabilidad como información de la microestructura, etc.)

(b) análisis lingüístico, es decir, lematización (extracción de palabras encabezado), información fonológica, ortográfica, morfológica, sintáctica, semántica y pragmática de microestructura.

En la construcción de diccionarios computacionales los investigadores hacen énfasis en la distinción de entradas mediante el sentido. Los principios para identificar un sentido en lexicografía según Meyer et al. (1990) y  Mel’čuk (1988a), son los siguientes:

1           Si para una unidad léxica sugerida pueden aplicar dos posibles mapeos a la ontología[32], entonces se deben crear dos unidades léxicas (es decir, crear dos sentidos si se desea tener significados diferentes apuntando a diferentes partes de una jerarquía de tipos).

2           Si hay restricciones elegibles incompatibles para una unidad léxica sugerida, debe haber dos sentidos.

3           Si hay dos conjuntos incompatibles de ocurrencias concurrentes (morfológicos, sintácticos como marcos de subcategorización, o léxicos como colocaciones), se deben crear dos sentidos.

4           Si hay dos posibles lecturas de una palabra, se deben crear dos sentidos.

La creación de entradas en el diccionario ha sido una tarea manual cuyo trabajo requiere expertos. Mel’čuk (1988a) establece criterios para distinguir sentidos, criterios que están dirigidos a los humanos. Para él, un vocablo es el conjunto de todas las unidades léxicas (sentidos) para el cuál las definiciones lexicográficas están ligadas mediante un puente semántico. Un puente semántico entre dos unidades léxicas es una componente común a sus definiciones, que formalmente expresa un enlace semántico. Una unidad léxica básica de un vocablo es una unidad léxica que tiene un puente semántico con la mayoría de las otras unidades léxicas del vocablo.

Un campo semántico es el conjunto de todas las unidades léxicas que comparten una componente semántica no trivial explícitamente distinguida. Un campo léxico es el conjunto de todos los vocablos cuyas unidades léxicas básicas pertenecen al mismo campo semántico. Aunque Mel’čuk usa un vocablo para agrupar sentidos similares bajo una superentrada, cualquier entrada principal puede tener cualquier número de grupos de sentidos bajo ella.

Mel’čuk articula el principio de descomposición, donde la definición de una unidad léxica debe contener solamente términos que son semánticamente más simples que la unidad léxica. Más aún, a través de su principio de puente semántico, las definiciones de cualesquiera dos unidades léxicas del mismo vocablo deben enlazarse explícitamente, ya sea por un puente semántico o por una secuencia de puentes semánticos.

Estos principios deben seguirse en la construcción de un diccionario y asegurar su consistencia interna. Más importante aún es que estos principios deben aplicarse para determinar la relación entre una definición y el resto del diccionario, incluyendo otras definiciones de la misma entrada principal. Mel’čuk hace seis observaciones pertinentes para agrupar y ordenar los sentidos de una entrada:

1           El agrupamiento en un vocablo polisémico tiene una motivación semántica, es decir, todos los lexemas deben compartir al menos un componente semántico importante.

2           La división en grupos de sentidos está sustentada semánticamente.

3           El ordenamiento se basa en proximidad semántica.

4           El ordenamiento se basa en cuál entrada es semánticamente más simple.

5           Un sentido intransitivo se sitúa antes de un sentido transitivo, de nuevo basado en simplicidad semántica (el transitivo se define en términos del intransitivo).

Litkowski (1992) considera como principios lexicográficos para organizar un diccionario computacional, los siguientes: las entradas principales y palabras encabezado, el agrupamiento y el orden de sentidos, y por último las seudoentradas. Por entradas principales y palabras encabezado, se refiere a que las unidades léxicas en un diccionario generalmente tienen la intención de asegurar la lexicalización del significado, uniendo grupos y configuraciones de elementos semánticos en unidades léxicas reales y proveyendo información sintáctica y léxica de ocurrencia concurrente. Pueden existir varias entradas correspondientes a homónimos.

El agrupamiento y el orden de sentidos se refieren a que la creación de sentidos para un diccionario computacional tiene consecuencias importantes para el compromiso del análisis sintáctico que se implemente. En diccionarios para sistemas amplios, mientras más información se tenga en el diccionario la estructura de una entrada supone mayor importancia, particularmente la manera en la que los sentidos se relacionan uno a otro.

Por seudoentradas se refiere a que se codifica otro grupo distinto de entrada léxica para caracterizar generalidades lingüísticas y léxicas. Las seudoentradas codifican solamente abstracciones semánticas o gramaticales, constituyen entradas metalingüísticas en el diccionario. Las seudoentradas varían en importancia con la teoría gramatical.

Ilson y Mel’čuk (1989) discuten varios problemas léxico-gramaticales: las cuasi pasivas, las variaciones sintácticas y los complementos objeto y sujeto. Las cuasi pasivas no son posibles en todos los verbos, son lexemas separados de sus formas activas, mientras que las pasivas reales son formas gramaticales del mismo lexema. Por lo que discuten que las pasivas reales no se deben describir como entradas separadas en las entradas propias del diccionario.

La variación sintáctica se refiere a que puede haber dos patrones de rección que tengan el mismo significado para un solo sentido de un verbo. Por lo que discuten que solamente es necesario un sentido en el diccionario. En los complementos sujeto / objeto, algunos son obligatorios y deben incluirse entre los argumentos de los verbos correspondientes, mientras que otros son opcionales y añadidos libremente. Así que arguyen que el reconocimiento debe tratarse en la gramática y no como resultado de diferentes entradas.

En todos estos casos, cierta información puede situarse en el diccionario. Tal vez la clave para hacer distinciones sea la eficiencia en el procesamiento, por ejemplo, situar información en el diccionario, si puede tenerse acceso a ella, y usarla más eficientemente que el retroceso a través de varias trayectorias en un analizador sintáctico. Con el desarrollo de reglas léxicas, reglas derivacionales y funciones de colocación que pueden situarse en el diccionario mismo, es difícil determinar exactamente dónde abandonar la creación de entradas del diccionario, es decir, en qué momento detener las definiciones lexicográficas.

5.2          Información sintáctica para los PRA

La obtención de los patrones de rección avanzados implica principalmente obtener el enlace de los grupos nominales y de los grupos preposicionales que realizan los objetos de los verbos, de los sustantivos y de los adjetivos. La fuente más común de ambigüedad sintáctica, y también el tipo de ambigüedad más difícil de resolver, es la ambigüedad al unir estos grupos.

Por ejemplo, para una frase simple como Trasladaron la filmación desde los estudios hasta el estadio universitario, pueden asignársele al menos las interpretaciones sintácticas que se muestran en la figura 21, donde aparecen los árboles de dependencias simplificados para cinco variantes. Realmente los árboles de dependencias son más detallados. Para este ejemplo, un hablante nativo escogería la primera estructura como la interpretación más probable, tomando en cuenta cierta información léxica.

Ahora, si consideramos únicamente POS, la estructura para el mismo ejemplo es V  NP  P  NP  P  NP (V significa verbo, NP sustantivo o grupo nominal, y P preposición). Esta estructura de categorías sintácticas no proporciona toda la información necesaria para seleccionar la primera estructura para la frase del ejemplo. Podemos incluso dar ejemplos de frases para las cuales son correctas las otras cuatro estructuras. Por ejemplo, la variante 3 de la figura 21 corresponde a la estructura correcta de una frase para el verbo relatar: Relataron [[su vida desde los diez años] hasta su muerte], que también tiene la estructura V  NP  P  NP  P  NP.

De lo anterior se observa que la información léxica de cada palabra, relacionada al establecimiento de sus objetos, es la que ayuda a determinar la interpretación correcta. Por lo anterior, un analizador sintáctico necesita esa información léxica para desambiguar las frases, es decir, para eliminar las variantes incorrectas de la frase específica. Esta información no puede describirse mediante algoritmos o reglas, pero si puede obtenerse a partir de un corpus de textos.

Figura 21. Variantes de la estructura sintáctica[33] para la frase Trasladaron la filmación desde los estudios hasta el estadio universitario

 


Tanto para el análisis sintáctico como para reconocer los objetos de los verbos, necesitamos resolver la ambigüedad de enlace de grupos, especialmente, los preposicionales. Este problema se complica en el reconocimiento de los objetos de verbos, de sustantivos y de adjetivos porque deben ser los correspondientes a las realizaciones sintácticas de las valencias.

Para reforzar el objetivo de nuestro trabajo mencionamos que estudios cognitivos recientes (Schütze y Gibson, 1999) sugieren que los seres humanos maximizan las relaciones de argumentos en la comprensión inicial de la ambigüedad objetivo, y que para describir esas relaciones se vuelven a considerar tratamientos combinados de léxico y frecuencia, además del conteo basado en lo último recordado. Consideran que se favorece el enlace de argumentos sobre los modificadores, los argumentos corresponden a las realizaciones sintácticas de las valencias y los modificadores son los circunstanciales.

Dos líneas de investigación recientes, que parecieran ser adecuadas para la obtención de los patrones de rección son: el enlace de frases preposiciones y la obtención de marcos de subcategorización. Estos estudios se han elaborado dentro del enfoque de constituyentes y pueden clasificarse en heurísticos, estadísticos, o basados en memoria. Algunos de ellos basados en corpus sin marcas, conocidos como no supervisados, y la mayoría basados en corpus marcados con la información que se pretende obtener, conocidos como métodos supervisados.

5.2.1       Enlace de frases preposicionales

Aunque para los patrones de rección se requiere conocer las frases preposicionales que realizan las valencias sintácticas, no son adecuadas las aproximaciones desarrolladas bajo la línea de enlace de frases preposicionales. De los estudios iniciales, algunos se basan en Ford et al. (1982), que introdujeron la noción de preferencias léxicas para la resolución de ambigüedad. Hindle y Rooth (1993) describieron un método para aprender la asociación léxica a partir de un corpus de textos donde el objetivo son los patrones V  NP  P, y donde se asocia la preposición al verbo o al sustantivo. Estimaron estadísticamente la asociación léxica a partir de un corpus de entrenamiento, con marcas de POS y analizado sintácticamente. Se debe notar que solamente es importante el enlace de la preposición y no las combinaciones completas como en la frase dar un libro a Juan donde se asocian al verbo dar los dos complementos (objeto directo e indirecto).

Otros trabajos como Resnik y Hearst (1993) y Ratnaparkhi et al. (1994), consideraron la frase preposicional completa. Ambos emplean clases de palabras para determinar los enlaces, Resnik y Hearst (1993) emplearon WordNet y Ratnaparkhi et al. (1994) obtuvieron las clases de palabras automáticamente mediante un procedimiento de clasificación de información mutua, basado en Brown et al. (1990). En ambos trabajos se emplean métodos estadísticos de asociación para determinar los enlaces, en el primero entre las clases del elemento del lugar de enlace y del objeto de las preposiciones, en el segundo para obtener conjuntos óptimos de características (valores dependientes del grupo de 4 elementos V  N1  P  N2, y de las clases a las que pertenecen los núcleos de los elementos).

Brill y Resnick (1994) describen un método de aprendizaje basado en transformaciones. Primero se enlazan todas las frases preposicionales al sustantivo y enseguida se comparan esas anotaciones contra las correctas del corpus. De esa comparación se determinan las transformaciones que se deben hacer para obtener los enlaces correctos. En cada iteración se intentan todas las transformaciones, y se escogen las que resultan en mejoras generales. Estas últimas se añaden a una lista ordenada de transformaciones y se aplican al texto, y así sucesivamente. En cada paso sucesivo se mejoran las transformaciones.

Los métodos basados en corpus, específicos para enlazar frases preposicionales, limitan su propósito (Yeh y Vilain, 1998) al problema de enlazar frases preposicionales con un sustantivo o con un verbo, quizá debido a que en inglés las frases preposicionales típicamente ocurren al final de la oración, lo cual permite enlazarlas a los constituyentes precedentes. Esta es una simplificación que no resulta adecuada para nuestro propósito porque no considera el enlace a adjetivos, a sustantivos y a verbos en un nivel más alto en la estructura jerárquica, o a oraciones completas (este caso fue considerado por Chen y Chen (1996) para trabajos de traducción). Una desventaja de estos métodos es que las frases verbales e idiomáticas introducen seudosustantivos que realmente no funcionan como puntos de enlace, ejemplo del primer caso: pone atención a la clase, el verbo es poner atención, ejemplo del segundo caso: metió ruido en el convenio.

Otra diferencia importante es que los trabajos antes descritos consideran el enlace de una sola frase preposicional. Una excepción es el trabajo de Merlo et al. (1997) que consideran los casos de enlaces de dos y tres frases preposicionales. El funcionamiento de su método para el enlace de tres frases preposicionales es de 43 por ciento para su conjunto de pruebas. Concluyen que el mayor problema en su método es la cantidad tan pequeña de casos con dos y tres grupos preposicionales, y la posibilidad de demasiadas configuraciones.

Todos los trabajos mencionados usan corpus marcados sintácticamente —especialmente el Penn Tree-Bank Wall Street Journal (Marcus et al., 1993)—, a excepción de Ratnaparkhi (1998) que utiliza solamente un corpus con POS, aunque su método es para el patrón V  N1  P  N2.

Un trabajo para obtener patrones sintácticos es el de Argamon et al. (1998). Ellos discrepan de la aproximación para detectar patrones sintácticos obteniendo el análisis sintáctico completo de una oración y extrayendo de ahí los patrones requeridos. Su objeción se sustenta en que en la mayoría de los casos es difícil obtener un análisis sintáctico completo para una oración, además de que puede no ser necesario, en todos los casos, identificar la mayoría de los ejemplos de patrones sintácticos. Su estudio se basa en el análisis sintáctico parcial (Abney, 1991; Greffenstette, 1993). Presentan una aproximación de aprendizaje general para reconocer patrones sintácticos en una frase. El método emplea un corpus de textos marcado con partes del habla, en el cuál todos los ejemplos de los patrones objetivo (los que se quieren obtener) se marcan sintácticamente con corchetes.

Todas las subcadenas de la frase de entrada se consideran como posibles patrones objetivo. El método calcula un puntaje para cada una de las subcadenas, comparándolas contra el corpus de entrenamiento. La comparación se realiza con evidencias positivas y negativas de cobertura de los patrones en el corpus de entrenamiento. La frase de salida está marcada con corchetes, de acuerdo con los patrones de mayor puntaje. Este método solamente reconoció los siguientes patrones SV, VO y secuencias de GN para el inglés, cuyo orden de palabras es más estricto que el del español. Cabe notar que no se considera la información léxica puesto que sólo se refiere a categorías gramaticales.

5.2.2        Obtención de marcos de subcategorización

La otra línea de investigación, la obtención de marcos de subcategorización, se ha desarrollado manual y automáticamente para verbos principalmente. Entre los trabajos manuales más importantes están Alvey NL Tools (Boguraev et al., 1987) y COMLEX (Grishman et al., 1994). En este último se crearon manualmente 92 marcos llamados características de subcategorización.

Debido a la utilidad de los marcos de subcategorización, el trabajo reciente se ha enfocado a su estudio (Utsuro, 1998) y a la extracción automática de esta información a partir de corpus de textos (Basili, 1999). Entre estos trabajos, Brent (1991) inicia con un sistema que detecta cinco marcos de subcategorización a partir de un corpus sin marcas sintácticas. Su siguiente trabajo (Brent, 1993) reconoce seis marcos y define un filtro estadístico para detectar los marcos verdaderos. Ushioda et al. (1993) describen un sistema similar en resultados, pero introducen la obtención de estadísticas de los marcos.

Manning (1993) describe la adquisición de un número pequeño de marcos de subcategorización para el inglés, Monedero et al. (1995) de uno aún más pequeño para el español. Manning, a diferencia de Brent, prefiere métodos de detección menos fiables a expensas de obtener una mayor cantidad de marcos, por lo que obtiene dieciséis marcos de subcategorización, y se basa en filtros estadísticos para eliminar los errores. Este método no emplea herramientas muy desarrolladas, limita el espacio de búsqueda de cláusulas a las introducidas por la palabra that y por conjunciones, además del punto. Emplea un marcador de POS y, como analizador sintáctico, un autómata de estados finitos y un reconocedor de grupos nominales.

El trabajo más amplio es el de Briscoe y Carroll (1997), quienesdescriben un sistema capaz de distinguir 160 clases de subcategorización. También Carroll y Rooth (1998) presentan una técnica de aprendizaje para obtener además de los marcos de subcategorización su probabilidad de distribución para incorporarla a un analizador sintáctico. El sistema de Briscoe y Carroll emplea recursos muy desarrollados: un marcador de POS, un desambiguador de marcas de puntuación, un lematizador, un analizador sintáctico probabilístico, un extractor de patrones, un clasificador de clases de subcategorización, y estimaciones manuales a priori de esas clases basándose en corpus marcados sintácticamente. En este método, las posibilidades de subcategorización del verbo se definen en las reglas de la gramática y los patrones de subcategorización se toman directamente del análisis. Existen 29 distintos tipos de patrones y 10 tipos diferentes para las frases preposicionales, que previa y manualmente se obtuvieron de otros diccionarios de subcategorización. La evaluación de los patrones se basa en el diccionario ANLT (Boguraev et al., 1987).

Para lenguajes con un orden de palabras más libre y con un mayor número de preposiciones, la colección completa de marcos de subcategorización sería demasiado grande y se requerirían muchas clases de subcategorización para describir un verbo. Además de que en lenguajes con un orden de palabras menos estricto las realizaciones de los objetos también pueden ocurrir previamente al verbo.

Así que estas líneas de investigación difieren en objetivo respecto a nuestra investigación, ya que nosotros requerimos una búsqueda exhaustiva y sin restricciones de todos los objetos para cada lexema predicativo. Cuando los objetos se realizan sintácticamente mediante frases preposicionales, en el español, éstas pueden ser más de una y enlazadas al mismo verbo. Como ya habíamos mencionado, las preposiciones simples y compuestas en español incrementan los posibles marcos de subcategorización de un lexema específico, por lo que de antemano no es posible definirlos en las reglas de la gramática sin perder la diversidad de composiciones que se presentan. Requerimos entonces un método de búsqueda exhaustiva de las valencias, considerando un orden de palabras más relajado que para el inglés y sin la necesidad de herramientas complejas.

Cabe mencionar que ni nuestro método ni los considerados previamente pueden tratar los casos donde el enlace difiere por razones semánticas y pragmáticas. Esos casos no pueden resolverse basándose en propiedades estructurales de la oración, por ejemplo: Yo quiero ese carro en la foto. En este sentido, los métodos basados únicamente en principios puramente pragmáticos también se equivocan en muchos casos. Los modelos basados en aproximaciones de Inteligencia Artificial de sentido común tienen diferentes problemas. Jacobs et al. (1991) indican que este tipo de modelos funciona bien en un dominio restringido y bien definido.

5.2.3       Bases del método estadístico

El método que proponemos para obtener los objetos de los verbos, sustantivos y adjetivos del español también se basa en obtener las estadísticas de variantes del análisis, al igual que en el método de desambiguación sintáctica que describimos en el capítulo anterior, sólo que en este caso las variantes son las combinaciones de palabras individuales con preposiciones. Si nos basamos solamente en POS, estas combinaciones serían las componentes de los denominados marcos de subcategorización pero específicos para cada palabra, y estas palabras pueden ser verbos, adjetivos y sustantivos. La selección de este tipo de combinaciones o marcos de subcategorización específicos, que en adelante sólo referiremos como combinaciones, no es aleatoria. Esas combinaciones son fijas, en un buen grado, para cada palabra específica, así que sus estadísticas son más confiables que las de palabras arbitrarias.

El diccionario que requerimos compilar es entonces una lista de posibles combinaciones (palabras con preposiciones) y, en el futuro, con algunas características de las palabras introducidas por estas preposiciones. En la forma más simple esa lista contiene entradas como las siguientes para trasladar:

1.    trasladar + hasta

2.    trasladar + desde + hasta

3.    trasladar + a

4.    etc.

   Para resolver la ambigüedad de los enlaces nuestro método se basa tanto en las frecuencias de las combinaciones en frases de textos particulares como en los errores del analizador sintáctico específico, es decir, en los árboles generados por el analizador sintáctico y en las estructuras que serían rechazadas ya sea por hablantes nativos o por otro tipo de procedimiento. En este método, para cada frase se determina un peso (o probabilidad) respecto a cada variante de estructura sintáctica. Este peso se basa en las estadísticas de las combinaciones en el lenguaje y en las estadísticas de variantes erróneas generadas por el analizador sintáctico específico.

Como ejemplo de este razonamiento presentamos un caso de desambiguación de POS. Supongamos que las frecuencias de diferentes POS en los textos bajo investigación son:

= 0.4, = 0.4, = 0.2.

Cada variante consiste de solamente una característica: V1 = {adjetivo}, V2 = {verbo}, V3 = {sustantivo}. Si esta es toda la información que tenemos, entonces dado el resultado del análisis V = {{adjetivo}, {verbo}} para una palabra determinada, razonaríamos que puesto que

>

entonces la variante correcta debería ser adjetivo, ya que su peso es P ({adjetivo}) = 0.4 / (0.4 + 0.2)  »  0.66 mientras que el peso P ({verbo}) = 0.2 / (0.4 + 0.2)  »  0.33. En otro resultado tenemos que V = {{sustantivo}, {adjetivo}}, y entonces no puede tomarse ninguna decisión porque los pesos son iguales: P ({sustantivo}) = P ({adjetivo}) = 0.5.

Supongamos ahora, como usualmente sucede, que el marcador de POS empleado reporta a veces erróneamente algunas variantes para las palabras, y que lo hace con la frecuencia 0.9 para un sustantivo, con la frecuencia 0.1 para un adjetivo, y que nunca ha reportado un verbo erróneamente[34]. Entonces para el resultado V = {{adjetivo}, {sustantivo}} podemos decir que la respuesta correcta es adjetivo ya que ambos tienen la misma probabilidad y el analizador comete un error menor al marcar un adjetivo.

Entonces, con este razonamiento, en nuestro método introducimos dos tipos de pesos estadísticos: p+ y p. El peso p+ significa la probabilidad, es decir, la frecuencia de ocurrencia de una combinación particular con la palabra rectora específica en el texto, en una estructura sintáctica correcta. Por ejemplo, en la figura 21 la combinación trasladar-desde-hasta ocurre una vez en la estructura correcta.

El peso p es más interesante que el anterior, y hasta donde hemos investigado su uso no ha sido descrito previamente en otros trabajos,, por lo que su introducción es un aporte teórico de esta investigación. El peso p es la probabilidad de que la combinación ocurra en una estructura que fue construida por el analizador sintáctico, pero que no es correcta. Por ejemplo, en la figura 21, la combinación los estudios hasta ocurre dos veces, en las variantes incorrectas 4 y 5; la combinación hasta el estadio universitario ocurre 1 vez en la variante correcta y 4 veces en las variantes incorrectas, entonces para esta última combinación,  p+ = 1/5  y  p = 4/5.

El método de atribuir probabilidades a los objetos lingüísticos puede considerarse discutible. Primero, porque para cualquier intención semántica dada el empleo de palabras específicas en un texto no es de ninguna manera aleatorio. Y en segundo, porque la acumulación de datos para distribuciones probabilísticas requiere mucho tiempo, además de que no puede considerase universal debido a las particularidades de las fuentes. De hecho, los resultados dependen mucho de la fuente (Roland y Jurafsky, 1998).

Asimismo, eliminamos la consideración de interdependencias, ya que el incluir esos datos crea problemas en la implementación (de espacio, de tiempo, etc.). Su posibilidad de inclusión debe analizarse concienzudamente con la finalidad de decidir si vale la pena el esfuerzo de su consideración para los resultados esperados. Una alternativa también a futuro es que en lugar de tomar probabilidades pudiéramos asignar algunos pesos apriorísticos (Briscoe y Carroll, 1997) a las variantes y usar esos pesos en nuestros cálculos.

La característica de nuestro modelo de probabilidad es que el espacio de eventos se define en dos niveles de granularidad: léxica y sintáctica. El nivel léxico se relaciona con cada palabra y en el nivel sintáctico con los enlaces que forman parte de las combinaciones.

5.2.4       Deducción del modelo

Para elaborar las fórmulas de obtención de los pesos estadísticos de las diferentes variantes de árboles sintácticos de una frase, basadas en las combinaciones que aparecen en cada árbol, consideramos un modelo de generación de frases.

Consideramos que todas esas combinaciones que deseamos obtener aparecen en los árboles sintácticos de una frase como características abstractas del árbol. Numeramos esas características, por ejemplo, la combinación “trasladar + desde + hasta” es la característica número 1, “acusar + a + de ” la número 2, etc. Denotamos esas características como f1, f2, etc. Entonces, el conjunto completo o diccionario de estas características es F.

Nuestro interés son las estadísticas de las características fi (las combinaciones) y una simplificación en el modelo consiste en omitir las relaciones entre ellas. Por lo tanto consideramos una frase P como un conjunto de esas características, P = {…, }. Por ejemplo, para la frase Trasladaron la filmación desde los estudios hasta el estadio universitario, obtenemos el conjunto P = {trasladaron + Ø + desde + hasta, estudios, estadio universitario}.

Para simplificar la discusión, suponemos que cada característica puede aparecer en una frase solamente una vez, ignorando las ocurrencias múltiples de la misma característica en una frase. Posteriormente indicaremos la forma de tratar este hecho. Consideramos también la elaboración del texto como un proceso de generación realizado por alguna fuente S, como un dispositivo que produce, una por una, frases .

El modelo de generación opera de la siguiente manera: para generar una frase P, una fuente S conteniendo la característica fi Î F decide si esta característica fi será incluida o no en la frase P  que se genera. La decisión se hace aleatoriamente, basándose en su probabilidad pi, probabilidad que está asociada en el diccionario F a cada una de las características fi. Por ejemplo, el generador S puede incluir la característica “trasladar + desde + hasta” en una de cada mil frases P, con la correspondiente probabilidad  p= 0.001.

Suponemos entonces que las características sí están incluidas, o no están incluidas en P de forma independiente. Obviamente, esto contradice la idea de coherencia en los textos como ya lo habíamos mencionado. Sin embargo, hacemos esta suposición, porque para este método no disponemos de un conocimiento léxico de colocaciones[35] (Smadja, 1993; Basili, 1994), ni de atracción léxica[36] (Yuret, 1998). Además, en este método no pretendemos una cobertura total de ocurrencias concurrentes sino únicamente, y de manera específica, de ocurrencias de combinaciones individuales. Así que basamos nuestro método en el único conjunto de datos disponible: las frecuencias pi de combinaciones individuales fi Î F.

Fundándonos en este conocimiento y en la hipótesis de independencia, podemos calcular la frecuencia de aparición de una frase específica P = {…, } en la salida de S basándonos en las probabilidades de las combinaciones. Estas probabilidades se calculan de la siguiente manera:

                                                                                    (1)

donde:

p    es la probabilidad de que la combinación se seleccione

q    es la probabilidad de que la combinación no se seleccione y su                valor es: q = 1 – p

k    es el número de variante

r     es 1 si corresponde a la variante correcta (se representa con “+”).

      es 0 si corresponde a variantes erróneas (se representa con “-”).

n    es el número de combinaciones

Así que tenemos las siguientes probabilidades:

Entonces la probabilidad de P es:

                                            P (P) =                                       (2)

puesto que cada característica de manera independiente está incluida en la frase P con las probabilidades a. Donde r la denotamos como:

Estas probabilidades pueden verse como una matriz V con k filas, una fila para cada variante, y n columnas, una columna para cada combinación. Entonces los valores en la matriz son:

                                                             (3)

donde Vk[n] representan los valores de las probabilidades de ocurrencia de las combinaciones presentes, n Î Vk. Si la combinación n está presente, entonces Vk[n] > 0, de lo contrario Vk[n] = 0.

El diccionario F de las características es tan grande que es mucho más frecuente que cada característica específica fn esté ausente de una frase, a que esté presente en ella. Este hecho es inherente a los textos, cada palabra, excepto algunas conjunciones y preposiciones muy comunes, aparece en una minoría de las frases en el texto. En (2) el producto se toma para todas las variantes y para todas las combinaciones en  F.

Considerando el conjunto de las variantes de la estructura sintáctica V ={¼, } construidas por el analizador sintáctico para la frase P, es posible usar la fórmula (2) para desambiguación. Supongamos que una de ellas es exactamente la correcta (de esta forma ignoramos los casos raros donde no se puede construir una variante correcta de estructura sintáctica para una frase dada). Sea Hj la hipótesis de que la variante Vj es la correcta. Sea x el evento de obtención de exactamente el conjunto V, es decir, la matriz V, como resultado del análisis sintáctico. Entonces, empleando la fórmula de Bayes tenemos:

                                                           (4)

Para abreviar, podemos denotar P (Hj | xº Pj, la probabilidad de que la variante Vj sea la verdadera. Puesto que exactamente una variante es verdadera, se ve claramente que:

                                                                                           (5)

Para calcular el valor de P (x | Hj) consideramos que:

1º.  No tenemos información a priori acerca de las probabilidades de las hipótesis individuales.

2º.  Todas las variantes son ruido, excepto una que es la correcta.

Puesto que el evento x no depende de j por completo, podemos ignorar P (x), y como no tenemos información a priori acerca de las probabilidades de las hipótesis individuales[37], consideramos que todas tienen la misma probabilidad, tanto la correcta como las erróneas, así que P (Hj) es una constante, entonces (4) puede reescribirse como (6):

                                             Pj ~ P (x | Hj),                                        (6)

donde ~ significa proporcional, es decir, Pj = C ´ P (x | Hj ) con una constante de normalización C determinada de (5).

Si tuviéramos cualquier información a priori acerca de la probabilidad de variantes individuales Vi, por ejemplo basadas en la longitud media de enlaces sintácticos o en probabilidades de las reglas gramaticales correspondientes (Goodman, 1998), o en algún otro parámetro, podríamos mantener el factor P (Hj) en (6).

Para calcular el valor de P (x | Hj) consideramos que todas las variantes son ruido, excepto una, que es la correcta. Suponemos que la hipótesis Hj es verdadera, es decir, que Vj = P y todas las otras variantes Vk, donde k ¹ j, son variantes espurias, es decir, ruido. Supongamos que el ruido ocurre en el conjunto V independientemente de la estructura verdadera de P. Nuevamente, esto no es correcto del todo, pero además de no tener ninguna información útil acerca de la naturaleza de su dependencia ni de sus interdependencias, es una simplificación común en los métodos estadísticos.

Entonces,

                                     P (x | Hj)  ~                                  (7)

donde N es el número de combinaciones y K es el número de variantes.

Presentamos ahora una suposición sobre el ruido, considerando dos fuentes de información, una fuente de señales verdaderas que modela la variante verdadera, y una fuente de ruido, que modela todas las variantes incorrectas. Es decir, una fuente S+ de frases correctas genera las frases P y una fuente S de errores genera las variantes de ruido del análisis (ver la figura 22), donde las figuras geométricas representan las combinaciones.

 

Figura 22. Modelo de dos fuentes de generación

Así que el conjunto V de elementos (conjunto Vj de características fi) es generado por ambas fuentes, S+ y S. Solamente un elemento de V, la variante verdadera, es generada por la fuente S+, y todas las otras por S. Entonces, un módulo de desambiguación recibe ese conjunto V, y su tarea es estimar qué elemento de V generó la fuente S+. La estimación se basa en las características fi encontradas en cada uno de los elementos.

Supongamos que tenemos unas estadísticas de las frecuencias de características individuales en los elementos generados por S+ y S. Entonces, considerando que la variante que se está generando es la correcta, S+ incluye una característica fi con la frecuencia , y la fuente S la incluye con la frecuencia . Nuevamente suponemos independencia, que las variantes generadas por la fuente S son independientes una de la otra y son independientes de la variante generada por S+.

Partiendo de estas suposiciones, la hipótesis Hj es equivalente a la afirmación de que la variante Vj fue generada por la fuente S+, mientras que las restantes lo fueron por S. La fuente S+ genera las probabilidades p+ y q+, y la fuente S  las probabilidades p- y q-.

Manipulando ahora algebraicamente la ecuación (7), mediante la introducción de un elemento unitario compuesto de las probabilidades q correspondientes a todas las combinaciones presentes en las variantes, es decir, para las p (n Î Vk) en toda la matriz, tenemos que:

 = =

donde es la matriz llena de probabilidades q (de no selección de combinaciones). En esta matriz, las probabilidades q+ están en la fila correspondiente a la variante correcta y las probabilidades q- en K-1 filas. Ya que esta matriz no depende de las combinaciones presentes se puede eliminar. Esta manipulación puede verse como la limitación de la matriz a las combinaciones presentes en las variantes para la frase dada.

                                    =                               (8)

Nuevamente volvemos a manipular algebraicamente la fórmula anterior con el elemento unitario compuesto del cociente p-/q-  para todas las combinaciones presentes en la variante correcta i.

= =

Esta manipulación corresponde ahora a limitar el espacio de eventos a la parte de las combinaciones presentes en la variante correcta. El factor  corresponde a todas las combinaciones que no están presentes en la variante correcta, así que lo podemos eliminar con cierta pérdida:

                       »  =                  (9)

Como p y p+ son valores pequeños, entonces (1 - p) / (1 - p+) tiende a uno, por lo que obtenemos finalmente:

                                        »                                  (10)

Así que para calcular el peso de la variante j-iésima, deben tomarse del diccionario F las frecuencias  y  de todas las características fi encontradas en esta variante Vj, y después aplicarse en la fórmula (10).

La crítica a los métodos estadísticos basados en corpus que se enfocan a las preferencias léxicas (Franz, 1996), se refiere a las pocas variables estadísticas que se consideran, y a que cuando se consideran varias de ellas, todo su manejo es en base a suposiciones de eventos independientes que no fueron motivados intuitivamente o que no tienen pruebas de que hay poca correlación. En este caso, la ecuación (10) es intuitivamente tan clara como que en la vida diaria la gente cree en algunas noticias del radio y no cree en otras, basándose en las probabilidades de los eventos correspondientes y en la frecuencia con la cual las fuentes que las generaron cometen errores en un tipo específico de temas.

5.2.5       Limitaciones del modelo

En la ecuación (10) se presentan dos circunstancias a considerar, cuando = 0 y cuando = 0. Cuando = 0, la ecuación puede causar una división por cero. Este problema fue introducido artificialmente al manipular algebraicamente la fórmula (7) para obtener las ecuaciones (8) y (9).

Más adelante presentamos la forma de resolver el problema que se introduce con las combinaciones que aparecen escasamente y que producen que  sea muy bajo y / alcance valores muy grandes.

La segunda consideración: = 0, está relacionada con el caso en el que la frase contiene una palabra que no existía previamente en los datos de entrenamiento. Obviamente, para cualquier combinación fi conteniendo esa palabra, su = 0. Entonces, Pj = 0 para toda j, lo que contradice la condición de normalización (5).

En lugar de introducir un caso especial para = 0, podemos usar un número muy pequeño, e << 1, es decir, cuando  = 0 lo cambiamos por = e, y hacemos lo mismo con. Esto no introduce una inexactitud significante y permite usar normalmente la expresión (10) en todos los casos.

La debilidad del razonamiento del modelo, característica de muchos modelos estadísticos, son las hipótesis de independencia, principalmente la introducción de las combinaciones de las estructuras incorrectas de forma independiente a la estructura correcta de la frase, y la independencia entre combinaciones de una frase.

Sin embargo, estas dos hipótesis nos permiten usar las expresiones como  para las probabilidades de las variantes Vj, sin tomar en cuenta las dependencias entre las variantes Vk ni entre ellas y la frase P. De otra forma, deberíamos tener datos cuantitativos útiles disponibles sobre esas dependencias. Los resultados obtenidos, que se discuten en la sección 5.3, no dan muestras de que esas hipótesis sean del todo erróneas.

5.2.6       Afinidades con otros métodos

Aunque no tenemos conocimiento de que otras investigaciones hayan empleado los errores del propio analizador para eliminar variantes incorrectas, conocemos que en la teoría de radar la detección de ataques se lleva a cabo por una evaluación diseñada cuidadosamente para medir tanto las razones de falsa alarma de ataques recientes como de razones de detección. Estas falsas alarmas son una indicación del radar de un objetivo detectado, aún cuando no exista ese objetivo, lo cual es causado por una señal de ruido o por niveles de interferencia que exceden el umbral de detección, que equivaldrían a la consideración de las variantes incorrectas generadas por el analizador sintáctico.

La teoría de señales, en la cual se basa la teoría de radar, se ha empleado en otras disciplinas, por ejemplo la sicología, en los años cincuenta y sesenta, como un intento de entender alguna de las características del comportamiento humano cuando se detectan estímulos muy tímidos, que no habían sido explicados por las teorías tradicionales de umbrales. En este caso se introduce un elemento de decisión, un acto cognitivo, para decidir si la señal está presente o ausente. Entonces, puede distinguir un éxito o un error cuando el estímulo está presente, o cuando el estímulo está ausente, la decisión será entre falsa alarma y rechazo correcto. En nuestro caso, la evaluación estadística  es equiparable a la falsa alarma.

En la teoría de radar, las evaluaciones iniciales de los sistemas de detección de intrusos tendieron a enfocarse exclusivamente a la probabilidad de detección, sin considerar la probabilidad de las falsas alarmas. Posteriormente, al incluir sesiones de ataques previos en sesiones normales, se pudieron medir simultáneamente tanto razones de detección como de falsas alarmas. Los conceptos matemáticos: espacios lineales de señales y proyecciones ortogonales, son conceptos claves para describir los problemas de procesamiento estadístico de señales como la detección y estimación (Scharf, 1991).

En teoría de ecuaciones diferenciales de control automático y en otras disciplinas igualmente matemáticas, para probar la existencia de una solución se han empleado los Teoremas de punto fijo, uno de los más antiguos teoremas de este tipo es el de Brouwer, que es una generalización del corolario del Teorema de valor intermedio. Una generalización del teorema de Brouwer fue después simplificada por Kakutani (Debreu, 1959).

El teorema de Brouwer establece lo siguiente: Sea ¦ : S ® S una función continua de un conjunto convexo, compacto, no vacío, S Ì Rn que mapea al mismo conjunto, entonces existe un x* Î S tal que x* = ¦ (x*) (es decir, x* es un punto fijo de la función ¦). La prueba de la existencia de todas las soluciones es extremadamente difícil y no es posible en todos los casos.

Aunque en la teoría de señales la incorporación de la medición de falsas alarmas tiene el propósito de solucionar la detección exitosa de los objetivos empleándola para regularizar las detecciones, en nuestro caso, la incorporamos para minimizar las variantes incorrectas, empleándola para medir la diversidad de variantes.

5.2.7       Proceso iterativo

Los pesos calculados con la ecuación (10) son los pesos de las variantes del análisis. Si tomamos una oración y la analizamos con un analizador sintáctico específico obtenemos un número de variantes, la mayoría de las cuales son análisis incorrectos debidos al propio analizador. Si tuviéramos alguna información a priori para ese analizador acerca de las probabilidades de las combinaciones en las variantes, podríamos estimar las probabilidades de cada una de las variantes. Basándonos en estos pesos de variantes asignaríamos nuevos pesos a las combinaciones  y  en la oración. Estos nuevos pesos de combinaciones permiten obtener a su vez nuevos pesos para cada una de las variantes de la frase, otra vez conforme a (10).

La ecuación (10) nos permite entonces obtener el peso de las variantes de análisis con los pesos anteriores de cada una de sus combinaciones y contribuir con esos nuevos valores para su reestimación. Teniendo unas probabilidades iniciales podemos proceder con todas las oraciones de un corpus, y el proceso irá modificando tanto los pesos de las variantes como los pesos de las combinaciones. Mientras más oraciones se analicen, más datos contribuirán a los pesos de combinaciones y emergerán las combinaciones específicas, es decir, la información léxica. Este es el proceso iterativo que proponemos. Para obtener las estimaciones de todas las posibles combinaciones de un corpus y calcular sus pesos, desarrollamos el algoritmo que se detalla en la figura 23.

El algoritmo resuelve dos problemas en los pasos iterativos:

        Resuelve la ambigüedad en el corpus a través de asignar pesos de probabilidad de las combinaciones a las variantes

        Compila el diccionario de las combinaciones para el diccionario de PRA y acumula los pesos estadísticos de las combinaciones.

El procedimiento iterativo se necesita para:

1      Extraer las características estadísticas de ocurrencia concurrente de las preposiciones o de otras construcciones sintácticas con las palabras específicas, basándose en los resultados ambiguos de análisis sintáctico.

1.    En el inicio todos los pesos son cero.

2.    Para cada frase de entrada, se construyen todas las variantes de análisis de acuerdo a la gramática que el analizador sintáctico emplea.

3.    Para cada variante se estima su peso wk , conforme a (10), es decir, el producto de las frecuencias de las combinaciones presentes en la variante.

4.    Los pesos se normalizan.

5.    Cada variante se separa en estructuras locales de los nodos (ver la figura 24). Estas estructuras se incorporan al diccionario.

6.    Para cada nodo de cada variante, se adiciona el peso de la variante al peso p+, y el cálculo (1 – w) al peso p.

7.    Se toma nuevamente el corpus y se sigue al paso 3.

Figura 23. Algoritmo para calcular los pesos de combinaciones


2