English to Spanish: Freelance Translator | |
Source text - English English | Translation - Spanish Spanish |
English to Spanish: ¿Puede Google superar la barrera del lenguaje computarizado? General field: Other Detailed field: Journalism | |
Source text - English The Observer, domingo 19 de diciembre del 2010
Google Translate le sigue la pista al eslabón perdido del aprendizaje automatizado, pero hay un mucho por recorrer antes que la traducción perfecta sea una realidad.
Desde la aparición de las computadoras, la posibilidad de usar su poder logístico para sobrepasar las barreras del lenguaje ha sido algo arduamente buscado dentro del lenguaje automatizado. Los primeros intentos fallidos se basaron en el fundamento de que todas las lenguas pueden ser separadas en dos componentes: un léxico de palabras con significados específicos y un conjunto de reglas gramaticales y sintácticas en el cual esas palabras se vinculen entre sí. La guerra fría generó esfuerzos de mayor alcance por parte de los organismos de inteligencia estadounidenses para que puedan entender en una escala industrial el «código» de la lengua rusa. Produciendo mas que nada incoherencias.
El primer gran avance hacia una potencial traducción mecanizada surgió a principios de los años noventa, cuando IBM elaboró un modelo con el fin de que la computadora deje de los datos que le eran introducidos. A su vez IBM, se enfocó en la tarea de instalar la mayor cantidad de versiones comparativas de textos traducidos para que el sistema calcule la probabilidad de los significados de las palabras y frases basados en estadísticas previas.
Pero casi después de 10 años, este sistema de base de datos estadísticos se estaba volviendo muy limitado, especialmente cuando intentaba traducir lenguajes en los que había relativamente muy poco material para ser usado como referencia. Fue en este punto en que Google ingreso a esta área con toda seriedad.
| Translation - Spanish The Observer, Sunday 19 December 2010
Google Translate is chasing the holy grail of machine learning, but there's a long way to go before accurate translation is a reality.
Ever since computers were a reality, the possibility of using their logistical power to break down barriers of language has been something of a holy grail in machine learning. The initial – unsuccessful – attempts were based on the principle that all languages could be distilled into two components: a lexicon of words with specific meanings, and a set of rules of grammar and syntax by which those words were linked together. The cold war prompted ambitious efforts by American intelligence agencies to understand the "code" of the Russian language on an industrial scale. It produced mostly gibberish.
The first significant breakthrough in the potential of mechanized translation came in the early 1990s when IBM produced a model that abandoned any effort to have the computer "understand" what was being fed into it and instead approached the task by installing in the computer the comparative versions of as much translated text as possible and having the system compute the probability of meanings of words and phrases based on statistical precedent.
A decade or so later, though, the statistical-based system was becoming severely limited, particularly so when it attempted translations from languages in which there was comparatively little text to "learn" as reference. It was at this point that Google entered the field in earnest.
|