chisteEl pasado día 28 de marzo, tal y como anunciamos en un post anterior, Manuel Mata Pastor vino a Valencia a dar una charla sobre Localización. Aunque el taller sólo duró 4 horas y no hubo mucho tiempo para hacer prácticas, sin duda fue una excelente introducción al mercado de la localización y sus conceptos básicos. Es un poco difícil resumir la charla ya que se hablaron de numerosos temas, pero a continuación paso a comentaros los puntos más destacados.

  • Para empezar se hizo una breve introducción teórica sobre los conceptos de globalización (g11n), internacionalización (i18n) y localización (l10n) y de la evolución de este mercado, que aunque teóricamente existe desde el primer momento en el que se empezaron a desarrollar herramientas informáticas y hubo necesidad de vender éstas en otros mercados, empezó a despuntar realmente a finales de los 90, sobre todo en el área de Irlanda, debido a las enormes facilidades que el gobierno de este país prestó a las empresas de software. Se habló de la diferencia entre localización y traducción, dicotomía que algunos autores ven de manera clara (como Manuel) y que otros no tanto (como Brian Mossop). También se discutió el concepto de traducción subordinada (o constrained translation, término introducido por Christopher Tilford en su artículo Subtitling-Constrained Translation), entendida como el tipo de traducción que está subordinada de manera inseparable a un soporte y que la “restringe”, bien por temas de espacio, bien por restricciones propias del medio como el movimiento de la boca en el doblaje (p.e. la traducción audivisual, la de videojuegos o la de software, que es el caso que nos ocupa).
  • Otro de los temas que se trató fue la diferencia de traducción entre software y páginas web. En cuanto a la traducción de páginas web y esta dualidad en la localización, os recomiendo el artículo de Manuel Mata «Traducción y localización de contenido Web», en Reineke, Detlef: Traducción y localización: mercado, gestión y tecnologías, en el que se tratan con detalle todos estos aspectos. Al respecto se estuvieron discutiendo las diferencias fundamentales entre la localización de páginas web y de software. En el primer caso, nos encontramos con menos restricciones de espacio y “formales” pero con mucha más variedad temática y de tipología textual (en una página web nos podemos encontrar con prácticamente todo tipo de textos, desde literarios hasta técnicos, pasando por humorísticos o jurídicos). Otra de las características de este tipo de “género” es su frecuencia de actualización, que en algunos casos puede llegar a ser continua, sobre todo cuando tratamos con páginas web dinámicas (para ver la diferencia entre páginas web estáticas y dinámicas, ver el siguiente punto). En cuanto al software, se trata de un tipo de traducción más restringida, de tipo eminentemente técnico, con menos actualizaciones y que suele requerir software más específico para su localización.
  • En cuanto a la traducción de páginas web es importante distinguir entre webs estáticas y dinámicas. La diferencia es principalmente que en el primer caso, los archivos de las estáticas están en el servidor y cuando nosotros accedemos a ellas desde nuestro ordenador “cliente”, creamos una réplica que vemos a través de nuestro navegador. En el caso de las webs dinámicas, las páginas que vemos son una “ilusión”, ya que éstas se crean “on the fly” al recibir una solicitud del cliente. Para ello, se cuenta con una especie de formulario en HTML u otro lenguaje de marcación que se cumplimenta con datos extraídos de una base de datos o una aplicación que se ejecuta en ese momento. Imaginaos por ejemplo las páginas de agencias de viajes o de empresas de transporte, que nos ofrecen los datos más actuales según la consulta que hagamos. Pues bien, en el caso de las webs estáticas, para poder traducirlas adecuadamente sin tener que copiar y pegar todo el contenido en un editor de texto, tendremos que o bien pedirle al cliente toda el sitio web, bien descargarlo con algún programa del tipo WebBudget o HTTrack. En el otro caso, de webs dinámicas, para poder traducir los datos de la base de datos o aplicación, tenemos, según Manuel tres opciones fundamentales: que el cliente convierta los datos de la base de datos a formato TXT o XLS (Excel), nosotros lo traduzcamos y él lo incluya en la aplicación; que nos desplacemos hasta las oficinas del cliente y traduzcamos in situ, en el mismo servidor donde está alojada la base de datos o las aplicaciones; utilizar un CMS (Content Management System) o, mejor aún, un GMS (Global Management System), aplicaciones que gestionan contenidos (en el último caso de tipo multilingüe, con conexión a memorias de traducción, traducción automática, terminología etc.) y que pueden accederse a través de la web. Un ejemplo es el de POLYCOM.
  • Una de las cuestiones que también surgieron en la charla fue la de los estándares propugnados por LISA y OASIS, que cada vez se están imponiendo más en el mundo de la localización y que sin duda contribuyen a una estandarización de los procesos y a una capacidad mucho mayor en la transferencia de datos. De algunos estándares como TMX o XLIFF ya hemos hablando en el blog y de otros como GMX o SRX hablaremos próximamente.
  • Se habló también de numerosas herramientas para el proceso de localización, desde herramientas para la traducción de páginas web, editores de recursos, descompilador de archivos de ayuda, utilidades para Flash etc. De todas estas herramientas iremos hablando poco a poco en el blog.
  • Con respecto a las herramientas y también a la localización de software, Manuel nos destacó también la importancia del procesamiento de imágenes en la localización. Dependiendo del producto, podemos encontrarnos con la necesidad de trabajar las imágenes por capas (si el cliente nos proporciona el archivo adecuado), de tener que hacer numerosas capturas de pantallas (simples o más sofisticadas, con recortes etc.). Al respecto Manuel ha publicado muy recientemente un artículo en la nueva revista de la Universidad de Málaga, Entre culturas. Así pues que este punto sirva además de recomendaros el artículo (dividido en parte I y parte II), para anunciaros el nacimiento de esta nueva revista que al parecer tiene muy buena pinta (todavía no he tenido tiempo de leerme los artículos, pero bueno, tiempo al tiempo).
  • Para terminar, uno de los temas más prácticos fue la importancia de realizar un presupuesto profesional y de llevar a cabo una buena gestión de proyectos en un encargo de localización. Es importante que, cuando nos llegue alguna petición de este tipo, seamos conscientes de la diferencia entre los servicios que ofrecemos como traducción propiamente dicha, y los servicios “añadidos” que pertenecen a la localización, como puedan ser ingenieria o rediseño, testing, procesamiento de imágenes, control de calidad, gestión de proyectos… Todos estos servicios no son traducción propiamente dicha pero pueden darle un valor añadido a nuestro negocio. Según Manuel, la prestación de estos servicios puede suponer hasta un 70% del encargo y pueden sin duda ayudarnos a afianzar nuestra imagen de profesionalidad y saber hacer frente al cliente.

Bien, creo que estos son los puntos más importantes que se trataron en la charla. Espero que os hayan resultado interesantes y hayáis aprendido un poquito más sobre este apasionante mundo.

¡Gracias Manuel por tu amabilidad y tus ganas de compartir conocimientos!.


Mar
27

El pasado 14 de marzo ATA (American Translators Association) celebró en un seminario sobre herramientas de traducción en San Francisco, California. El seminario se dividió en dos partes, una impartida por Rosalie P. Wells y la otra por Dierk Seeburg, de Icotext.

La primera parte, de Rosalie, se centró en la presentación de herramientas digamos “generales” (porque no están pensadas de forma específica para traductores) que pueden aumentar la productividad del traductor profesional, a saber: herramientas de comunicación, gestión, productividad, documentación, mantenimiento, seguridad etc.

La segunda parte, impartida por Dierk, complementó la primera con herramientas específicas TAO, entre las que se encontraban herramientas para la gestión de proyectos, para la gestión terminológica, aplicaciones de localización, programas de traducción automática y entornos para la traducción asistida.

Dierk ha sido tan amable de colgar las diapositivas de su presentación en slideshare. Las podéis ver aquí mismo:

Aprovecho para dejaros también otras dos presentaciones anteriores de Dierk, una sobre herramientas libres para la traducción y otra sobre gestión de proyectos en traducción:

Aunque las presentaciones son bastante generales y muy visuales (faltaría que tuvieran sonido, con Dierk hablando :), no vienen mal para repasar los conceptos básicos de tecnologías y traducción y conocer alguna herramienta nueva, que siempre se nos escapa alguna…

¡Espero que las disfrutéis!

Mar
27
Filed Under (Formación, Marcas, Wordfast) by Laura on 27-03-2009

No sé si recordaréis que hace poco hablamos del lanzamiento de la nueva versión del GMT (gestor de memorias de traducción) Wordfast Pro. Pues bien, parece ser que ahora además van a lanzar una serie de seminarios online, gratuitos y de 20 minutos de duración. Vamos, que van a ser como pequeñas “píldoras de conocimiento”,

El programa, con los temas y horarios, es el siguiente, y podéis inscribiros en este enlace:


Webinar #1 – Installing, Activating, Licensing Wordfast Pro
This session will cover installing, activating, and licensing Wordfast Pro on your computer systems.  We will also cover support and using the hotline for technical questions
Tues March 31st—8:00 AM EDT
Wed April 1st—2:00 PM EDT
Thurs April 2nd—10:00 PM EDT

Webinar #2 – Setting up your preferences in Wordfast Pro
This session will cover configuring your Wordfast Pro settings/preferences.
Tues April 7th—8:00 AM EDT
Wed April 8th—2:00 PM EDT
Thurs Apth 9th—10:00 PM EDT

Webinar #3 – Project, TM, and glossary setup and maintanence
This session will cover setting up and maintaining Projects, Translation Memories, and Terminologies.
Tues April 14th —8:00 AM EDT
Wed April 15th —2:00 PM EDT
Thurs April 16th —10:00 PM EDT

Webinar #4 –TXML files
This session will cover working with TXML files, the file format generated by Wordfast Pro.
Tues April 21st —8:00 AM EDT
Wed April 22nd —2:00 PM EDT
Thurs April 23rd —10:00 PM
EDT

Webinar #5 – DOC, XLS, and PPT Files
This session will cover translating and cleaning up MS Word, PowerPoint and Excel files.
Tues April 28th —8:00 AM EDT
Wed April 29th —2:00 PM EDT
Thurs April 30th—10:00 PM EDT

Webinar #6 –Translating HTML and XML files.
This session will cover translating HTML and XML files, including working with rules files.
Tues May 5th —8:00 AM EDT
Wed May 6th—2:00 PM EDT
Thurs May 7th—10:00 PM EDT

Webinar #7 – Icons and Shortcuts
This session will give an overview of the functions of the different icons and shortcuts found in the TXML editor.
Tues May 12th —8:00 AM EDT
Wed May 13th —2:00 PM EDT
Thurs May 14th —10:00 PM EDT

Webinar #8 – Wordfast Add-ons
This session will give an overview of the PM Plugin, TM admin tool and Server based TM integration.
Tues May 19th —8:00 AM EDT
Wed May 20th —2:00 PM EDT
Thurs May 21th —10:00 PM EDT

¿Alguna vez habéis tenido que traducir un archivo de AutoCAD? ¿Con qué problemas os habéis enfrentado? ¿Cómo se pueden traducir estos archivos utilizando un GTM (gestor de memorias de traducción)? Un ejemplo de documento de AutoCAD con tablas de texto sería éste:
AutoCAD

Pues parece ser que es posible gracias a una herramienta desarrollada por Translation to Spanish llamada TranslateCAD. Esta herramienta convierte el formato DXF (Drawing Interchange Format) y DWG (Drawing Web Format) a formato de texto plano codificado en Unicode, que puede abrirse con un editor como MS Word para traducirlo con alguna herramienta TAO como Wordfast, Déjà Vu o Trados Workbench. Después la herramienta reconstruye el fichero DXF a partir de este documento en texto plano.

Podéis descargar la versión de prueba 1.0 (permite contar palabras sin límite y traducir las primeras 50) de manera gratuita desde este enlace. La versión completa cuesta $29.00, que no es un precio demasiado excesivo si realmente trabajáis mucho con este tipo de formato.

Las características del software son:

• Permite traducir archivos AutoCAD® DXF de las versiones AutoCAD® R12 a AutoCAD® 2009

• Compatible con todas las versiones actuales de Windows® (Vista, XP, 98/95)

• Ocupa muy poco: el paquete de instalación sólo ocupa 225 KB y únicamente requiere 226 KB del disco duro (incluyendo la documentación).

• Se ejecuta de manera independiente: no instala DLLs conflictivas ni ningún tipo de librerías.

• Actualizaciones gratuitas para siempre. No se ha de comprar una licencia por cada nueva versión. La licencia que se adquiere funciona para todas las posibles futuras versiones.

Podéis ver un vídeo de todo el proceso aquí:

Mar
23
Filed Under (Eventos, Formación, Localización) by Laura on 23-03-2009

Voy a aprovechar para hacer un poquito de publicidad: este próximo sábado día 28 de marzo La Xarxa organiza en Valencia un taller de Localización impartido por Manuel Mata Pastor, especialista en tecnologías de la traducción, miembro de ASETRAD, traductor y localizador desde 1989, formador y profesor de la Universidad Autónoma y de la Universidad Complutense de Madrid.








El contenido del curso es el siguiente:

  • ¿locali… qué!: GILT = G11N+I18N+L10N+T9N
  • breve historia del sector
  • el mercado de la localización y sus agentes:
  • el caso de España… y el español
  • localización de software vs. de contenido web
  • localización de software:
  • software / documentación / ayuda / otros
  • localización de contenido web:
  • contenido estático vs. dinámico
  • elementos textuales / metatextuales / gráficos /
  • interactivos / multimedia
  • salidas y perfiles profesionales
  • perspectivas de evolución

Tenéis más información y os podéis preinscribir en este enlace. Yo por mi parte voy a hacer todo lo posible por asistir y así contaros qué tal…

Mar
19
Filed Under (Grandes Temas) by Laura on 19-03-2009

El otro día, a través de la lista de Traducción en España, a la que os recomiendo que os suscribáis si tenéis pensado dedicaros al mundo de la traducción profesional en el mercado español, descubrí el enlace del TM Survey, elaborado por el Imperial College de Londres.

Aunque ya han pasado 3 años desde su creación, creo que vale la pena echarle un vistazo para tomarle el pulso a la actualidad sobre el uso de las memorias de traducción en diferentes ámbitos y de los hábitos de trabajo en este mundo profesional. Yo la estoy leyendo con atención para el artículo sobre innovación en traducción que estoy preparando para el blog. Por cierto, he encontrado también esta presentación que resume los resultados. Os dejo también una presentación de introducción a lo que son las memorias de traducción, para quien sea nuevo en este mundo y quiera saber más:


Hace poco Pablo Muñoz nos ofrecía en su blog una reseña de algunos de los artículos sobre traducción técnica aparecidos en el reciente número de Jostrans, revista electrónica sobre traducción especializada dirigida nada más y nada menos que por Peter Newmark (¡con quien tuve la suerte de hacer un curso hace ya unos cuantos años en la Universidad de Westminster!).

Aprovecho para recomendaros también las dos entrevistas que incluye la revista, una a Christophe Declercq, del Imperial College de Londres, realizada por Mark Shuttleworth (profesor de traducción y director del Máster en Traducción Técnica, Científica y Médica con Tecnologías de la Traducción en la misma universidad), en la que nos habla sobre ele estado actual de las herramientas de traducción asistida.

La otra entrevista tiene como protagonistas Dave Ranyard y Vanessa Wood, de a href=”http://www.scee.presscentre.com/”>Sony Computer Entertainment Europe. Entrevistados por Miguel Bernal (Roehampton University), nos hablan de los profesionales implicados en la localización de videojuegos, el papel de la localización en la industria así como de los principales tipos de proyectos de localización existentes.

Los vídeos son algo pesados (y un poco largos, el de Declercq dura unos 45 minutos y el de Sony unos 20). Os dejo aquí, además de los vídeos, los enlaces desde donde podéis descargarlos para verlos tranquilamente en casa:


Entrevista a Dave Ranyard y Vanessa Wood, Sony

Entrevista a Declercq


TRADUMATICA
Recientemente (diciembre de 2008) salió a la luz el último número de TRADUMÁTICA, revista electrónica en la que participan el Departament de Traducció i d’Interpretació de la UAB, el Departament de Traducció i Filologia de la UPF y el Departament de Traducció e Interpretació de la Universitat de Vic .

Yo he leído todos los números y os los recomiendo encarecidamente, ya que en general hay artículos muy interesantes, tanto por su contenido académico, como por su cercanía a temas reales y prácticos de la traducción.

Paso a comentaros brevemente ahora los artículos que he leído del último número, que espero os den una idea de los temas tratados y os animen a leer alguno que otro artículo:

En el primer artículo, Teresa Cabré, figura consagrada de la terminología en el ámbito académico y profesional, hace un repaso de esta disciplina académica, desde sus orígenes como tal hasta las corrientes teóricas actuales. Después se centra en el uso y la formación en terminología para traductores. Se habla en concreto de las diferentes teorías terminológicas para después pasar a una aplicación concreta, Estació Terminus, desarrollado por el IULA en Barcelona, en el que se pretende crear gestor integral para el trabajo terminógráfico desde el que pueda acceder a diversas herramientas (recopilación y consulta de corpora, edición de glosarios etc.) para su trabajo sin tener cambiar de entorno o aplicación. El proyecto todavía está en vías de desarrollo y todavía no hay ningún prototipo que pueda verse, pero estaremos atentos a los últimos desarrollos…

TBX-Basic, Translation-oriented Terminology Made Simple, escrito por Alan Melby, otra de las figuras claves en el mundo de la traducción, resulta especialmente útil para todos aquellos traductores que trabajen con glosarios en bases de datos terminológicas y estén interesados en el intercambio de los mismos. En el artículo se presenta TBX-Basic, basado en TBX, un formato de intercambio para datos terminológicos impulsado por OSCAR, LISA y el Comité Técnico ISO 37. Este formato cuenta con categorías (definición, categoría gramatical, término etc. -hay 20 en total-), que es lo que se entiende como campo sistemas de gestión de bases de datos terminológicos. Estas categorías están, a su vez, estructuradas atendiendo a los niveles dictados por el estándar TMF. El objetivo del artículo es ilustrar cómo trabajar la terminología en formato tabla (lo que el autor denomina formato MRCtermTable), bien en una hoja de cálculo, bien en un editor de texto, siguiendo una serie de indicaciones técnicas. Este formato después puede convertirse a TBX con herramientas específicas (consultar las páginas de Alan Melby http://www.ttt.org/tbx/ y LISA http://www.lisa.org/Term-Base-eXchange.32.0.html), sin necesidad de conocer a fondo el formato XML, en el que está basado TBX. Posteriormente, este formato TBX puede ser leído por algún gestor de terminología, como ApSIC Xbench y CrossTerm de Across.

El tercer artículo, Ontologías para la terminología: por qué, cuándo, cómo, de Antonio Moreno Ortiz de la Universidad de Málaga, discute la utilidad que puede tener para el terminólogo la integración de una ontología en su trabajo, los criterios que han de considerarse en el caso de plantearse hacerlo, las pautas a seguir y las herramientas a su disposición. Se discute también el papel de las ontologías en la formación de traductores y su relevancia para la terminología. Aunque he oído hablar bastante de ontologías y de la web semántica, no es mi campo de especialidad y reconozco que me gustaría informarme un poco más. Este artículo ayuda, además de a conocer el concepto de ontología, a descubrir algunos aspectos técnicos del trabajo con ontologías como la utilización del lenguaje OWL, adaptado como estándar para la web semántica, o la existencia de herramientas como OntoTerm o Protegé, desarrollado por la Universidad de Standford y que parece tener bastante buena pinta. Aquí os dejo dos vídeos para ampliar un poco más sobre el tema y ver cómo funciona la herramienta (hay alguno más en youtube, por si queréis profundizar en el tema):

 

El artículo del profesor alemán Johann Haller (mi director de tesis!!!) habla de AUTOTERM, desarrollado por el IAI de Saarbrücken. La herramienta busca, mediante métodos híbridos (análisis lingüístico y estadístico), patrones y establece una clasificación estadístico de probables candidatos a término, tanto de manera monolingüe como bilingüe (trabaja con archivos TMX). Al utilizar inteligencia lingüística, el software está restringido a ciertas lenguas (español, alemán, inglés), pero puede adaptarse a otras lenguas si hay el suficiente interés. La herramienta todavía no está disponible (ni hay demos), pero parece interesante… veremos cuáles son los avances.

Terminologia i traducció automàtica, de Fiona Bell y Mathias Lemke describe las características de funcionamiento del sistema de traducción automática Translendium y en concretodetalla la estructura del módulo terminológico dentro del sistema, así como el proceso que se sigue para introducir nueva terminología y validarla. Este proceso se ilustra con un caso real en el que se produce una importación masiva de terminología que, siempre que se evalúe y se realice dentro de un proceso controlado, aporta dos ventajas fundamentales: la traducción de términos que antes quedaban sin traducir así como el encontrar equivalencias más correctas para términos que ya existían pero que tenían una equivalencia no correcta en el contexto que se pretendía traducir. Como conclusión del artículo se puede decir que, para que el proceso tenga éxito, es sumamente importante que la terminología esté bien delimitada y marcada por etiquetas de área temática o campo de especialidad.

En el siguiente artículo escrito por Joaquim Moré, Lluís Rius, Mercè Vázquez y Lluís Villarejo, se habla del Observatorio de Terminología Talaia, en la UOC. El objetivo del mismo es recoger unidades neológicas procedentes de revistas académicas publicadas en la Universidad mediante herramientas terminológicas multilingües como Lexterm (que ya comentamos en otro post) y técnicas de filtrado de tipo lingüístico y estadístico. Esta combinación de diferentes procesos permite disponer de un caudal continuo de propuestas terminológicas multilingües de aparición reciente en el ámbito de la sociedad del conocimiento.

Jesus M. Gonzalez-Barahona y Javier Fernández-Sanguino Peña nos hablan de la traducción de Debian GNU/Linux al español. La particularidad de un proyecto de localización de estas características es que supone las tareas de localización (incluida la traducción) a muchas de las lenguas previstas se llevan a cabo a partir del esfuerzo de voluntarios. El artículo resulta interesante no sólo a los que se dedican al mundo de la localización, sino en general a toda la comunidad de traductores porque constituye también un ejemplo muy claro de la importancia de una buena gestión y control del flujo de trabajo en grandes proyectos de traducción. En el artículo se hace referencia a numerosos enlaces relacionados con el mundo de la traducción del software libre, a los que sin duda vale la pena echar un vistazo.

Terminology and Translation Quality Assurance, de Joachim Van den Bogaert, nos habla de la importancia de una buena gestión terminológica en grandes empresas. El artículo describe cómo estas prácticas pueden afectar la traducción y el proceso de control de calidad. A partir del caso de Yamagata Europe, se presenta una metodología que permite procesar datos terminológicos gestionados con carencias y utilizar la información recuperada durante el procesamiento y la traducción para mejorar la organización y la consistencia de una base de datos.

Análisis terminológico de sitios web localizados del inglés al español: uso de técnicas de amplificación y elisión, de María Isabel Diéguez Morales (Pontificia Universidad Católica de Chile), es un artículo de corte académico que expone y discute algunos resultados de la investigación “Análisis discursivo y funcional de sitios web localizados: características terminológicas” realizada entre los años 2006 y 2007. Se presentan ejemplos del análisis terminológico contrastivo realizado a un corpus paralelo selectivo de sitios web localizados del inglés al español, específicamente en lo que se refiere a las funciones textuales de claridad (técnica de amplificación) y de simplificación (técnica de elisión) que presentan los equivalentes en español de los términos originales en inglés, y se concluye que sólo un 6% de los términos presenta alguna de estas técnicas, siendo las más frecuentes la aposición explicativa mediante término original y equivalente y la paráfrasis explicativa.

Para terminar, Bartolomé Mesa-Lao presenta a modo de tabla un Catálogo de gestores de terminología, en el que, tras una breve introducción teórica, presenta trece herramientas para la gestión terminológica. En una primera parte crea fichas descriptivas para cada uno de ellas y posteriormente introduce tablas de comparación en las que se tratan aspectos como la Descripción técnica, las opciones de búsqueda, la Modificación de entradas, el Modo de visualización, la Importación y Exportación de entradas, la Gestión de la terminología (organización de diccionarios), la Gestión de idiomas y las posibilidades de extracción terminológica. Aunque este tipo de catálogos van bien para hacerse una idea de las diferentes herramientas que existen en el mercado, es conveniente ser cuidadoso a la hora de tomarlos al pie de la letra, ya que muchas veces se ha de conocer muy bien un sistema para determinar ciertas características.