5
Feb

El mundo por escrito

Escrito el 5 Febrero 2007 por Julian de Cabo en Tecnologías convergentes / Convergent technologies

Tal vez una de las cosas que pasan más desapercibidas al usuario de buscadores es el hecho de su incapacidad para localizar cualquier tipo de información que no sea de “tipo texto”. Es decir: cuando uno busca información en Google, MSN Search o Yahoo!, el único parámetro que puede utilizar es texto puro y duro. Incluso cuando las búsquedas tienen como objeto la localización de una imagen o un video, dependemos por completo de lo correcta que haya sido su descripción textual.

Un ejemplo claro puede ser YouTube, aplicación que es propiedad de la empresa puntera en habilidades para buscar que es Google. Si uno quiere localizar un video sobre, pongamos por caso, una moto cualquiera, sólo encontrará aquellos que hayan sido etiquetados como “moto” por quien los almacenó. Pero no los que fueran archivados como “Suzuki”, “Montesa” o “Bultaco”, pese a que su contenido real sean motocicletas en movimiento.

En el fondo, con “algoritmo Google” o sin él, lo que sigue existiendo debajo de toda clasificación que hagamos es texto. Y el texto no es más que un modo de codificar información. Pero ni es el único (la imagen o el sonido son modos alternativos de codificación, cada vez más comunes), ni a veces es suficiente cuando se le desprende del contexto.

Lo peor del caso es que muchos de los intentos de desarrollo de formas de búsqueda alternativa de que se tiene noticia siguen estando basados en la previa “reducción a texto” de la información. Es decir, pasan por la necesidad de examinar los archivos de audio o video para reconocer los diálogos, convertirlos en textos y buscar sobre ellos. Por extraño que pueda parecer, hay quien trabaja en esta línea de desarrollo con idea de explotarlo comercialmente en un futuro próximo.

Es complicado anticipar cuanto de efectivos sean esos esfuerzos. Lo que sí está claro es que el usuario de a pie cada vez conserva más información no textual que luego es incapaz de manejar. Y que existe todo un mercado potencial para la primera empresa que dé con una fórmula capaz de resolver la situación. La pregunta es … ¿veremos funcionar esta tecnología algún día, o seguiremos intentando reducir la realidad a textos que la describan?

Comentarios

Patxi Bonel 5 Febrero 2007 - 16:50

Hace muy poco tiempo Scientific Amercian publicó un artículo sobre un estudio llevado a cabo por investigadores italianos sobre el comportamiento asociado a los tags.

Volvieron a encontrar que los tags se asociaban siguiendo una distribución Power Law. Este tipo de distribución es la misma en la que se basa el modelo del “Long Tail”, y la misma que ha encontrado A. Lazlo Barabasi en el comportamiento de muchas de las redes sociales desarrolladas en internet y que denomina “Scale free networks”, y la misma distribución estadística que aparece en muchos procesos naturales durante el cambio de fase de líquido a sólido.

Disculpad el tono tan científico de este post. Por si alguien se anima a leer algo más:

January 23, 2007. “Tag, You’re It: Scientists Describe Collaborative Tagging Sites like Del.icio.us ” Italian researchers determine underlying statistical structure of social bookmarking sites. By Nikhil Swaminathan.

http://www.sciam.com/article.cfm?articleID=5021D304-E7F2-99DF-33DDD86F3B3ECA20&pageNumber=1&catID=1

Javier Lecanda 5 Febrero 2007 - 20:03

Hola Julian, interesante comentario…
Y como dices, se ha estado trabajando en este sentido durante ya varios años… pero ya hay herramientas disponibles, que aunque no perfectas, nos dan una probada de lo que depara el futuro. Un sitio interesante que te recomiendo es Blinkx.com, un buscador de vídeos que cataloga vídeos de muchas fuentes, y teóricamente utiliza reconocimiento de voz y de imágenes.

Julian de Cabo 5 Febrero 2007 - 23:53

No tiene mal aspecto el buscador, Javier. Gracias!

Pero fíjate que cuando hablamos de “reconocimiento de voz” lo que realmente estamos haciendo es lo que comentaba: convertir audio en texto para poder buscar sobre el texto resultante.

Me despista más el tema de video. Me encantaría ver qué principio de funcionamiento hay detrás.

Julian de Cabo 5 Febrero 2007 - 23:57

Y de adelante hacia atrás, Patxi, lo tuyo es una fuente constante de referencias. Algo increíble, caballero. Aunque a la hora en que leo tu comentario hubiera preferido que me adelantaras unas conclusiones en lugar de dejarme el link. Estoy tan cansado que no sé si me animaré.

Y el caso es que suena interesante.

🙁

Sergio Gago 6 Febrero 2007 - 00:09

Hoy en día (y desde hace ya tiempo) se está dedicando mucho esfuerzo a los buscadores semánticos (de hecho ya hay pruebas más o menos decentes por ahi).
Por otra parte ya se han hecho algunos pinitos en el reconocimiento de imágenes ( http://www.riya.com, ahora propiedad de google).

Veo un futuro no muy lejano en el que hagamos una foto con el móvil y podamos ver toda la información al respecto (ahora hay una aproximación muy precaria con los QR Codes).

Y en el campo de la voz, midomi.com, que hace una búsqueda en función de lo que cantes…

Es cierto que todavía estamos en pañales, pero cuando consigamos juntar todo esto, con búsquedas verdaderamente semánticas, y redes neuronales (esto ya es cosa mía.. XD), tendremos el objetivo deseado (aunque puede que cueste más que la teoría de la unificación!)

Dejar un Comentario

*

Utilizamos cookies propias y de terceros para mejorar nuestros servicios y mostrarle contenido relacionado con sus preferencias mediante el análisis de sus hábitos de navegación. Si continua navegando, consideramos que acepta su uso. Puede cambiar la configuración u obtener más información aquí. Aceptar