TRADUMATICA
Recientemente (diciembre de 2008) salió a la luz el último número de TRADUMÁTICA, revista electrónica en la que participan el Departament de Traducció i d’Interpretació de la UAB, el Departament de Traducció i Filologia de la UPF y el Departament de Traducció e Interpretació de la Universitat de Vic .

Yo he leído todos los números y os los recomiendo encarecidamente, ya que en general hay artículos muy interesantes, tanto por su contenido académico, como por su cercanía a temas reales y prácticos de la traducción.

Paso a comentaros brevemente ahora los artículos que he leído del último número, que espero os den una idea de los temas tratados y os animen a leer alguno que otro artículo:

En el primer artículo, Teresa Cabré, figura consagrada de la terminología en el ámbito académico y profesional, hace un repaso de esta disciplina académica, desde sus orígenes como tal hasta las corrientes teóricas actuales. Después se centra en el uso y la formación en terminología para traductores. Se habla en concreto de las diferentes teorías terminológicas para después pasar a una aplicación concreta, Estació Terminus, desarrollado por el IULA en Barcelona, en el que se pretende crear gestor integral para el trabajo terminógráfico desde el que pueda acceder a diversas herramientas (recopilación y consulta de corpora, edición de glosarios etc.) para su trabajo sin tener cambiar de entorno o aplicación. El proyecto todavía está en vías de desarrollo y todavía no hay ningún prototipo que pueda verse, pero estaremos atentos a los últimos desarrollos…

TBX-Basic, Translation-oriented Terminology Made Simple, escrito por Alan Melby, otra de las figuras claves en el mundo de la traducción, resulta especialmente útil para todos aquellos traductores que trabajen con glosarios en bases de datos terminológicas y estén interesados en el intercambio de los mismos. En el artículo se presenta TBX-Basic, basado en TBX, un formato de intercambio para datos terminológicos impulsado por OSCAR, LISA y el Comité Técnico ISO 37. Este formato cuenta con categorías (definición, categoría gramatical, término etc. -hay 20 en total-), que es lo que se entiende como campo sistemas de gestión de bases de datos terminológicos. Estas categorías están, a su vez, estructuradas atendiendo a los niveles dictados por el estándar TMF. El objetivo del artículo es ilustrar cómo trabajar la terminología en formato tabla (lo que el autor denomina formato MRCtermTable), bien en una hoja de cálculo, bien en un editor de texto, siguiendo una serie de indicaciones técnicas. Este formato después puede convertirse a TBX con herramientas específicas (consultar las páginas de Alan Melby http://www.ttt.org/tbx/ y LISA http://www.lisa.org/Term-Base-eXchange.32.0.html), sin necesidad de conocer a fondo el formato XML, en el que está basado TBX. Posteriormente, este formato TBX puede ser leído por algún gestor de terminología, como ApSIC Xbench y CrossTerm de Across.

El tercer artículo, Ontologías para la terminología: por qué, cuándo, cómo, de Antonio Moreno Ortiz de la Universidad de Málaga, discute la utilidad que puede tener para el terminólogo la integración de una ontología en su trabajo, los criterios que han de considerarse en el caso de plantearse hacerlo, las pautas a seguir y las herramientas a su disposición. Se discute también el papel de las ontologías en la formación de traductores y su relevancia para la terminología. Aunque he oído hablar bastante de ontologías y de la web semántica, no es mi campo de especialidad y reconozco que me gustaría informarme un poco más. Este artículo ayuda, además de a conocer el concepto de ontología, a descubrir algunos aspectos técnicos del trabajo con ontologías como la utilización del lenguaje OWL, adaptado como estándar para la web semántica, o la existencia de herramientas como OntoTerm o Protegé, desarrollado por la Universidad de Standford y que parece tener bastante buena pinta. Aquí os dejo dos vídeos para ampliar un poco más sobre el tema y ver cómo funciona la herramienta (hay alguno más en youtube, por si queréis profundizar en el tema):

 

El artículo del profesor alemán Johann Haller (mi director de tesis!!!) habla de AUTOTERM, desarrollado por el IAI de Saarbrücken. La herramienta busca, mediante métodos híbridos (análisis lingüístico y estadístico), patrones y establece una clasificación estadístico de probables candidatos a término, tanto de manera monolingüe como bilingüe (trabaja con archivos TMX). Al utilizar inteligencia lingüística, el software está restringido a ciertas lenguas (español, alemán, inglés), pero puede adaptarse a otras lenguas si hay el suficiente interés. La herramienta todavía no está disponible (ni hay demos), pero parece interesante… veremos cuáles son los avances.

Terminologia i traducció automàtica, de Fiona Bell y Mathias Lemke describe las características de funcionamiento del sistema de traducción automática Translendium y en concretodetalla la estructura del módulo terminológico dentro del sistema, así como el proceso que se sigue para introducir nueva terminología y validarla. Este proceso se ilustra con un caso real en el que se produce una importación masiva de terminología que, siempre que se evalúe y se realice dentro de un proceso controlado, aporta dos ventajas fundamentales: la traducción de términos que antes quedaban sin traducir así como el encontrar equivalencias más correctas para términos que ya existían pero que tenían una equivalencia no correcta en el contexto que se pretendía traducir. Como conclusión del artículo se puede decir que, para que el proceso tenga éxito, es sumamente importante que la terminología esté bien delimitada y marcada por etiquetas de área temática o campo de especialidad.

En el siguiente artículo escrito por Joaquim Moré, Lluís Rius, Mercè Vázquez y Lluís Villarejo, se habla del Observatorio de Terminología Talaia, en la UOC. El objetivo del mismo es recoger unidades neológicas procedentes de revistas académicas publicadas en la Universidad mediante herramientas terminológicas multilingües como Lexterm (que ya comentamos en otro post) y técnicas de filtrado de tipo lingüístico y estadístico. Esta combinación de diferentes procesos permite disponer de un caudal continuo de propuestas terminológicas multilingües de aparición reciente en el ámbito de la sociedad del conocimiento.

Jesus M. Gonzalez-Barahona y Javier Fernández-Sanguino Peña nos hablan de la traducción de Debian GNU/Linux al español. La particularidad de un proyecto de localización de estas características es que supone las tareas de localización (incluida la traducción) a muchas de las lenguas previstas se llevan a cabo a partir del esfuerzo de voluntarios. El artículo resulta interesante no sólo a los que se dedican al mundo de la localización, sino en general a toda la comunidad de traductores porque constituye también un ejemplo muy claro de la importancia de una buena gestión y control del flujo de trabajo en grandes proyectos de traducción. En el artículo se hace referencia a numerosos enlaces relacionados con el mundo de la traducción del software libre, a los que sin duda vale la pena echar un vistazo.

Terminology and Translation Quality Assurance, de Joachim Van den Bogaert, nos habla de la importancia de una buena gestión terminológica en grandes empresas. El artículo describe cómo estas prácticas pueden afectar la traducción y el proceso de control de calidad. A partir del caso de Yamagata Europe, se presenta una metodología que permite procesar datos terminológicos gestionados con carencias y utilizar la información recuperada durante el procesamiento y la traducción para mejorar la organización y la consistencia de una base de datos.

Análisis terminológico de sitios web localizados del inglés al español: uso de técnicas de amplificación y elisión, de María Isabel Diéguez Morales (Pontificia Universidad Católica de Chile), es un artículo de corte académico que expone y discute algunos resultados de la investigación “Análisis discursivo y funcional de sitios web localizados: características terminológicas” realizada entre los años 2006 y 2007. Se presentan ejemplos del análisis terminológico contrastivo realizado a un corpus paralelo selectivo de sitios web localizados del inglés al español, específicamente en lo que se refiere a las funciones textuales de claridad (técnica de amplificación) y de simplificación (técnica de elisión) que presentan los equivalentes en español de los términos originales en inglés, y se concluye que sólo un 6% de los términos presenta alguna de estas técnicas, siendo las más frecuentes la aposición explicativa mediante término original y equivalente y la paráfrasis explicativa.

Para terminar, Bartolomé Mesa-Lao presenta a modo de tabla un Catálogo de gestores de terminología, en el que, tras una breve introducción teórica, presenta trece herramientas para la gestión terminológica. En una primera parte crea fichas descriptivas para cada uno de ellas y posteriormente introduce tablas de comparación en las que se tratan aspectos como la Descripción técnica, las opciones de búsqueda, la Modificación de entradas, el Modo de visualización, la Importación y Exportación de entradas, la Gestión de la terminología (organización de diccionarios), la Gestión de idiomas y las posibilidades de extracción terminológica. Aunque este tipo de catálogos van bien para hacerse una idea de las diferentes herramientas que existen en el mercado, es conveniente ser cuidadoso a la hora de tomarlos al pie de la letra, ya que muchas veces se ha de conocer muy bien un sistema para determinar ciertas características.