14
Sep

Comunidades y creación de contenidos

Escrito el 14 septiembre 2005 por Julian de Cabo en Comunidades / Communities

La aparición de formatos alternativos a los tradicionales “estándares” es uno de los retos a los que se enfrenta la industria de los contenidos, tal como comentaba Salvador en su interesante post de ayer. Pero ni es el único, ni tal vez el más interesante en el largo plazo.

Al fin y a la postre, un formato estándar es un elemento que cobra importancia en uno de los momentos finales del proceso creativo, como es la distribución. Antes de llegar a necesitar de tales formatos, el camino a recorrer es largo, y casi en cada paso que recorramos encontraremos nuevos retos provocados por la aparición de nuevas tecnologías.

De una idea no muy lejana a esta surgió allá por 1.995 la famosa Cadena de Valor Virtual del artículo de Rayport y Sviokla que ha sido una de las bases filosóficas de la revolución de Internet.

Pero incluso la Cadena de Valor Virtual queda un paso por delante del objeto de la reflexión de hoy, dado que las actividades de gestión de información que contempla, son las que cubren el ciclo existente entre la recopilación y la distribución de la información, obviando una fase previa de producción o creación, que no se considera.

Dicho de otro modo: puede que la industria de los contenidos tenga un reto en el campo de los formatos de distribución para aquellos contenidos que son “suyos”, pero no menores son los que se le plantean en el área de la creación misma, que es donde debería estar su aportación de valor real.

Tomemos como ejemplo (por salir de la música, que cansa un poco) el mismo que Salvador usa: el cine. En su fase de distribución hemos asistido en tiempos recientes al espectáculo proporcionado por Formatos como DivX que han demostrado una eficiencia mucho mayor que los industriales. Pero si nos vamos un poco más atrás en la cadena virtual y examinamos fases como la recopilación u organización de información, vale la pena comparar las iniciativas de la industria tradicional con lo que está pasando en sitios como www.divxclasico.com, donde podremos encontrar un apartado como el de filmografías en el cual hallaremos no menos de 300 filmografías ordenadas por actores, directores, temáticas … todo ello con una calidad que no deja de impactarme cada vez que la consulto.

Pero lo que confieso que me tiene aún más perplejo en los últimos tiempos es lo que cuento como final. El caso de “Star Wars Revelations”, película hecha por aficionados en cuya portada de web puede leerse un americanísimo disclaimer que afirma que “Revelations is a non-profit film being made for private use, and is not intended for sales of any sort. No money is being made from this film, and no one was paid to make it. Star Wars is a registered trademark of LucasFilm LTD. Panic Struck Productions copyright”.

Por lo que he podido averiguar, el equipo de 200 aficionados que hizo la película aprovechó la posibilidad que George Lucas brinda de construir historias con sus personajes siempre que se trate de proyectos sin ánimo de lucro. Se aprovecharon de ello y de las potentes capacidades que la tecnología informática e Internet ponen en manos de cualquiera que sepa aprovecharlas. Y el resultado fue una película donde la calidad de los efectos especiales es perfectamente comparable a la de las primeras entregas de la saga “oficial”.

Para que no falte de nada, la distribución se hace en formato DivX sobre redes peer to peer. Todo 100% legal y sin problemas.

La pregunta que me queda después de todo esto no es sencilla, como tampoco creo que lo sea la respuesta. La pregunta es: ¿debería estar tranquila la industria de creación de contenidos pensando en que el control del talento quita importancia al control de los estándares?.

La respuesta, como dijo Dylan, está flotando en el viento.

13
Sep

Estándares, DVD’s y China

Escrito el 13 septiembre 2005 por Salvador Aragón Álvarez en Asia, Estandares / Standards, Tecnologías convergentes / Convergent technologies

Los estándares juegan un papel clave en el desarrollo de la convergencia digital. Al generar un marco de referencia común para un amplio número de empresas, su éxito o fracaso determina no el futuro de una tecnología o producto, si no el de un mercado entero.

Esta relevancia ha sido especialmente analizada por el profesor Carl Shapiro (web con múltiples referencias) que resumió el papel de los estándares en una única frase: “los estándares hace pasar de luchar por un mercado a lucha por un mercado“. Al fijar de forma precisa las prestaciones esperables por el cliente y reducir la incertidumbre tecnológica, los estándares producen una rápida comoditización de la industria, dificultando la diferenciación.

Un ejemplo de esta dinámica es el mercado del Audio CD. Tras ser desarrollado por Phillips y Sony a principios de la década de 1980. La especificación del Audio CD fue fijada por el Digital Audio Disc Comité, garantizado la unicidad de un mercado y la total compatibilidad entre el soporte físico y los reproductores. Intentos de estándares complementarios como el CDTXT de Sony o más recientemente algunos de los sistemas anti-copia han sido frenados por la propia robustez de la especificación.

La complejidad de los factores que determinan el éxito o fracasote un estándar puede ser ilustrado con un ejemplo de la máxima actualidad. A lo largo de todo el año 2005 la industria de la electrónica de consumo ha desarrollado una actividad frenética en tono al sucesor del actual DVD ().

En principio la lucha se ha establecido entre dos tecnologías soportadas por dos agrupaciones de fabricantes: Blue-Ray y HD-DVD. Blue Ray es la solución tecnológica más rupturista y se encuentra apoyada por un amplio número de fabricantes entre los que destacan ony, Matsushita, Samsung, Philips, Dell, Hewlett-Packard, Apple e Htachi. Por su parte HD-DVD (Hih Density Digital Versatile Disc) está siendo apoyado ante todo por Toshiba, NEC y Sanyo.

A pesar de algunos intentos de aproximación, ambos grupos se resisten a la adopción de una especificación común, o al menos a garantizar la interoperabilidad de ambos formatos. Los dos contendientes justifican sus diferencias en la superioridad de su respectiva tecnología frente a su oponente.

Sin embargo, un tercer jugador esta punto de alterar este panorama. A finales del año 2003, el Gobierno Chino anuncio su intención de desarrollar un estándar alternativo al DVD al que denominó EVD (Enhanced Versatile Disc). En marzo de 2005, este estándar fue aprobado como la especificación oficial dentro del mercado chino, como una forma de evitar el pago de royalties por tecnologías foráneas.

Aunque inicialmente el EVD se orienta al mercado interior chino, es fácil imaginar el impacto de su generalización dentro del país donde se producen más del 70% de los reproductores de DVD del mundo, con más de 100 fabricantes allí asentados.

Y es que en el desarrollo de los estándares, nunca puede obviarse el factor político. El desarrollo de GSM, el estándar europeo con mayor éxito, partió de una clara orientación política que pudo ser seguida por las operadoras públicas europeas. Un esquema que en el marco actual no puede ser replicado en Europa pero si en China y Japón.

Y es que mientras en el DVD, unos discuten sobre galgos o podencos, el ganador final podría ser no un perro sino un gato, pekinés en este caso.

12
Sep

Rentabilizar la confianza

Escrito el 12 septiembre 2005 por Ricardo Pérez Garrido en Convergencia / Convergence

Es un tema recurrente en el mundo de las transacciones electrónicas. No solo entre personas, sino tambien entre empresas. Se trata de la confianza. El ponerse, a sabiendas, en una posición de inferioridad de la que la otra parte puede aprovecharse. La expectativa es que la otra parte no lo hará. Por diversas razones, una importante será seguramente conseguir que la transacción se lleve a cabo y tenga posibilidades de repetirse.

Muchas empresas han intentado reducir la falta de confianza que genera un entorno donde no hay caras ni apretones de mano. Lo han hecho inventando sistemas para asegurar el pago, la calidad del producto o la historia de fiabilidad de la otra parte. Este último punto es especialmente interesante: igual que en los sistemas academicos o de desarrollo de código abierto puedes identificar a la otra parte por lo que ha publicado o por su contribución a proyectos, el historial de transacciones de éxito dice mucho de un comerciante. No es mas que la “fama”, buena o mala, que todos tenemos en nuestro entorno de trabajo, familiar, de amistades.

Los modelos que intentan introducir herramientas para promover la confianza entre los usuarios tienen ya mucho ganado. Unos intentan ser los mejores buscando lo que necesitamos y poniéndolo a nuestra disposición de forma estructurada y sencilla. Otros compran tecnología y marca para que sus usuarios tengan más herramientas a su disposición para cerrar transacciones.

Los movimientos del mercado de las últimas semanas indican que cada vez es más importante presentar al mercado, con meridiana claridad, las intenciones de las empresas “de internet” de hacer las cosas bien, de ser honestos y defender a sus usuarios. Desde fichajes estrella a compras millonarias.

Se está configurando así un entorno donde la concentración de servicios se hace a un ritmo frenético. Donde los sitios elegidos por los usuarios para “hacer cosas”, para obtener información y servicios que les ayuden en su vida, son menos. Y los ingresos por publicidad y transacciones mayores.

Son ya gigantes que compiten en capitalización bursatil y en atención y tiempo de un ciudadano medio con compañías y medios tradicionales. A pesar de representar una parte mínima de la inversión y las transacciones actuales, para un porcentaje creciente de población en el mundo son su fuente de información, de comunicación personal y de trabajo, de viajes, de comparación de precios, de organización de recuerdos…

Ahora se extienden a diversas plataformas, formatos y lugares. Habrá que buscar las claves de ese nuevo entorno de confianza para intentar aprender de su éxito.

8
Sep

Inclusión digital y derechos de la persona

Escrito el 8 septiembre 2005 por Julian de Cabo en Educación / Education

Hace un par de días, y al hilo de unas preguntas de un periodista tuve ocasión de volver sobre el concepto de inclusión digital, y muy especialmente sobre uno de los grandes puntos de ese debate, como es el rol que las administraciones deben jugar con relación al mismo.

Creo recordar que una de las primeras ocasiones en que oí hablar de este tema bajo el nombre inclusión digital fue cuando en Sevilla el Consejo Europeo aprobó el plan de acción “eEurope”. Estábamos en el año 2.002, y en aquella ocasión, referida al ámbito europeo, la inclusión se configuraba como la voluntad de aunar esfuerzos para no dejar a ningún grupo social al margen de la revolución digital. El concepto debía transcender al ámbito nacional o de organismos concretos y convertirse en principio inspirador de la política comunitaria y de la actividad de las administraciones públicas.

Aunque en principio la idea era interesante, y acertaba sobre todo al dar la relevancia necesaria al acceso en banda ancha como elemento sin el cual es ilusorio superar la brecha digital, confieso que pensé que aquello iba a quedar en nuevo humo sin concretar. Cosas de políticos a las que no había que prestar mucha atención.

Tres años después, y para mi sorpresa, parece que si ha tenido algún efecto interesante. En concreto, parece seguro afirmar que ha tenido una influencia positiva en los ámbitos políticos de reflexión vinculados a la tutela de la Sociedad de la Información españoles.

Por no irnos más lejos, en el Informe al Gobierno Español presentado por el Consejo Asesor de las Telecomunicaciones y la Sociedad de la Información este mes de Junio, aparece una recomendación que me resulta realmente novedosa, como es la de establecer un nuevo derecho en favor de los ciudadanos: el derecho de personas y empresas a relacionarse telemáticamente con las Administraciones Públicas. Recomendando incluso la creación de un Defensor del Usuario, que ya es mucho concretar para un informe de este tipo.

Sin ser un experto jurista, no puedo asegurar que sea novedad mundial, pero sí puedo afirmar es que se trata de la primera vez que oigo hablar de tal derecho. Y aunque se antoje a priori tan etéreo como puedan serlo el derecho a un puesto de trabajo o a una vivienda digna que recoge nuestra Constitución, estoy persuadido de que no sería una mala idea darle todo el recorrido legal pertinente, llegando incluso a otorgarle carácter de derecho constitucional para España o para la futura Constitución Europea.

Al fin y al cabo, si una Carta Magna debe tener un valor programático para una sociedad, hay temas como este nuevo derecho que deberíamos incorporar al conjunto de valores por los que apostar para el futuro. Aunque sólo sea como aspiración, seguro que da fruto.

7
Sep

Creating expectation… like never before?

Escrito el 7 septiembre 2005 por Ricardo Pérez Garrido en Entertainment

This is going to be a good day for gadget-lovers. And, for those in the telecom industry, it could be a day to remember. Steve Jobs is going to make a big announcement” Maybe the already famous motorola/iTunes iPhone? Any market forecast you can read these days is signalling smart phones + hard drives and music downloads as big opportunities for the coming years. The move will take competition from the mp3 market to a new industry, and users to a new level of possibilities. With complete superiority in the “legal- music download and mp3 player markets, Apple could be opening yet another market to explore” one with a size that could change the nature of the company.

Nokia opened fire with its N series. Motorola, recovering thanks to the success of the V3/Razr series, could benefit from this new move and gain the “fashionable” interest that their phones never had.

Whether the announcement happens or not, it is showing the way for all makers and even for the music industry: there are a growing number of users willing to buy their music and listen to it through a same device. If it can also connect you to your friends, take and share pictures and access your blog… well, that’s cool.

In the war for your pocket’s space “…this is not the end. It is not even the beginning of the end. but it is, perhaps, the end of the beginning”.

6
Sep

Los Limites Tecnológicos de la Convergencia

Escrito el 6 septiembre 2005 por Salvador Aragón Álvarez en Tecnologías convergentes / Convergent technologies

Nuestra experiencia cotidiana como usuarios de dispositivos tan diversos como el televisor, el ordenador personal o el teléfono móvil nos han acostumbrado a un incesante incremento de las prestaciones sin un sustancial crecimiento del precio. Desde la capacidad de nuestro disco duro al ancho de banda disponible a través de nuestro acceso por ADSL o cable, cada día parece ofrecerse más por menos.

Los estudiosos de la evolución de las tecnologías de la información y las comunicaciones han denominado a esta tendencia como la Ley de Moore, en honor de uno de los fundadores de Intel que predijo el ritmo de crecimiento de la capacidad de los microchips allá en 1971.

Aunque esta ley fue enunciada inicialmente en el ámbito de la capacidad de procesamiento, pronto extendió su alcance al almacenamiento y transmisión de la información. De hecho, el enunciado más general e ilustrativo en el ámbito de la convergencia de esta ley es el siguiente:

“El coste de procesar, almacenar y transmitir información decrece exponencialmente con el tiempo”

La ley de Moore no es el resultado de la evolución de una tecnología única, si no de la superposición de múltiples tecnologías básicas que se suceden unas a otras. De igual forma que la velocidad alcanzable en el transporte terrestre ha pasado sucesivamente por la tracción animal, los motores de vapor y los de combustión interna; la capacidad de los “chips” ha pasado por sucesivas generaciones con mayor escala de integración: SSI, LSI, VLSI y recientemente ULSI (Ultra-large-scale Integration).

Resulta evidente que el mantenimiento, de la actual tasa de crecimiento de posibilidades tecnológicas en el ámbito de la convergencia, depende de la validez de la ley de Moore en el largo plazo.

El ejemplo de los circuitos integrados es de nuevo muy ilustrativo. A principios de 2005 el tamaño de un transistor integrado en un chip se situaba en torno a los 10 nanómetros. Sin embargo los límites físicos para las tecnologías actuales sitúan el menor tamaño alcanzable en torno a los 4 nanómetros. Al ritmo de miniaturización actual, la Ley de Moore perdería su validez en unos 12 años.

Sin embargo, esta limitación puede ser superada mediante el cambio de tecnología básica. Al igual que los limites de la tracción animal fueron superados por los motores de combustión, las actuales tecnologías básicas serán reemplazadas por otras que rompas las barreras actuales.

Los últimos análisis de prospectiva tecnológica permiten identificar algunas de estas tecnologías. En el ámbito de lo semiconductores claves para el procesamiento de información, la principal candidata a sustituir la tecnología VLSI dominante es una propuesta nanotecnológica denominada SWNT (Single-walled Carbon Nanotube).

En el ámbito del almacenamiento de datos, los actuales dispositivos magneto-mecánicos que plantean un claro horizonte de saturación en esta misma década, serán sustituidos a largo plazo por discos duros de estado sólido (SSHD) herederos de los actuales memory sticks, aunque en el ínterin se discute el papel que jugaran los dispositivos de almacenamiento holográfico.

Finalmente los límites al flujo de datos en canales de fibra óptica se sitúan en torno a los 150 Tb/s por canal, muy lejos de los 25 alcanzables con las actuales técnicas de modulación.

Por lo tanto, no se perciben limites tecnológicos a la convergencia en las próximas dos décadas. Sin embargo, la ley de Moore se verifica con ritmo decreciente en la transmisión, almacenamiento y procesamiento, lo que genera un diferencial creciente entre sus costes relativos.

Este efecto tiene consecuencias evidentes en un futuro mucho más próximo, ya que mover mover la información va a a resultar menos oneroso que producirla o almacenarla. Ello justifica muchos de los modelos de computación ubicua que se proponen. El impacto de estos modelos en la convergencia será objeto de un próximo post dedicado a Tecnologías de la Convergencia.

1
Sep

Salvando la brecha digital (con un puente de madera)

Escrito el 1 septiembre 2005 por Julian de Cabo en Educación / Education

Parte importante del ritual de la vuelta de vacaciones de verano es la compra de los libros de texto que nuestros hijos van a usar el curso próximo. Año tras año nos sorprendemos de la escasa correlación entre su precio y la profundidad de su contenido, pero lo asumimos como parte de todo aquello que en la vida lleva la etiqueta de inevitable.

Este año, sin embargo, las cosas han ido un poco más allá de la sorpresa por la vaguedad general de lo que mis hijos aprenden, y llevo un par de días sumido de lleno en la estupefacción más absoluta.

La culpa es de mi hija mayor, que comienza el ciclo llamado de educación secundaria. Visto lo que comentaré luego, adelanto la conclusión de que poco más adecuado podía ser el adjetivo (secundaria) para matizar adecuadamente al nombre “educación”.

Entre las materias que van a ser objeto de su estudio, este año aparece una asignatura novedosa para la cual compramos -a 21 euros de vellón- el libro llamado “Tecnología Informática”. Como novedad curricular, se supone que esta obra será para muchos chicos la puerta de entrada al mundo digital.

Tal vez por ello, el capítulo 4 de la obra lleve por título “La Madera”. ¿De qué si no se hacen las mejores puertas?. Una cosa es que todo cambie, y otra que las puertas sigan siendo lo que han sido toda la vida. Les juro que no escribo bajo la influencia de substancias que potencien la lucidez. El capítulo 4 se llama así, por la gloria de mi madre.

De hecho, de eso me dí cuenta al cabo del rato. La causa inicial de mi pasmo consistió en que, de un libro que consta de 200 páginas articuladas en torno a 10 capítulos, teníamos que llegar a la página 117 y el capítulo 7 (“El ordenador y sus componentes. Windows”) para encontrar algo sobre Informática en sentido estricto. Y cuando llegamos, es para comprobar algo que resulta interesante: que el primer titular que algunos chicos van a leer en su vida es que la informatica es Windows.

Cosa que tiene mucho de verdad a fecha de hoy, pese a las implicaciones político-religiosas que podamos encontrar alrededor de Microsoft y sus sistemas. Pero parece exagerado que ese capítulo 7 dedique sólo cuatro páginas a los ordenadores en general antes de pasar al sistema operativo Windows. Si se trata de que con esto estamos poniendo las bases de lo que es la informática en la cabeza de los chicos, se me ocurren mil cosas previas que contar antes de llegar a este punto. Y me temo que casi ninguna tenga que ver con la madera.

Igual lo que pasa es que, una vez más, estamos siguiendo tradiciones seculares y procurando que la formación no tenga nada de práctica. Puede que la razón de que el ordenador se vea (¿lo verán en realidad?) en el capítulo séptimo, sea permitir que los seis previos se hayan desarrollado en el confortable entorno del Aula “normal” sin que los niños destrocen la preciosa Sala de Informática.

Pero lo que parece claro es que pretender salvar la brecha digital con una formación que nos hace aprender cosas sobre la madera ¡a los 12 años! es llegar tarde y mal al punto donde todo arranca, que es la formación de los jóvenes. ¿Nos asombraremos de que dentro de unos años sigamos sin hacer el uso de la tecnología que hacen los países vecinos?.

Tal vez sería mejor anticiparse un poco, y pasar a “educación primaria” estas cosas, antes de que sea demasiado tarde.

24
Jul

Hacking the entertainment industry

Escrito el 24 julio 2005 por Ricardo Pérez Garrido en Entertainment

This week GTA San Andreas, a popular video game, saw its rating evolve from “M” to “Adults Only” in the USA. The Entertainment Software Rating Board (ESRB) decision forced Take 2 Interactive (owner of Rockstar Games, creators of the game) to announce that they will cease the production of the current version of the game, and provide a patch for the “hot coffee” modification that caused the re-rating. San Andreas, the last instalment of the GTA game series, has already sold 6 million copies, with the complete series, created in 2001, accounting for more than 21 million copies and more than $900 million in total revenue.

The controversy comes from a piece of code that independent programmers added to the pc game, uncovering sex-related scenes (called “hot coffee”) that, according to the company, where never meant to be seen.

Gaming companies have traditionally encouraged players to modify (mod) their games, to help enhance the user experience, and, more importantly, extend the life of the product and its online revenues. Now this decision casts some shadows in this “democratization” movements of the industry, forcing companies to add extra security to their games and prevent some forms of “modding”.

With the entertainment industry facing increasing risks over higher piracy rates and decreasing revenues from traditional distribution channels, encouraging customers to build a better experience with your products for the next customer in line (and for free) is probably a good strategy. Preventing it might cause problems difficult to foresee at this point.

Last week several retailers (Wal-Mart, Target) announced they will remove the game from their stores. Take 2 is changing its forecasts accordingly (source: company site):

“As a result of the re-rating of the game, Take-Two is lowering guidance for the third fiscal quarter ending July 31, 2005 to $160 to $170 million in net sales and a net loss per share of $(0.40) to $(0.45) to provide reserves for the value of the title’s current North American retail inventory. Accordingly, guidance for the fiscal year ending October 31, 2005 is also being lowered to $1.26 to $1.31 billion in net sales and $1.05 to $1.12 in diluted earnings per share”.

20
Jul

Tarifas planas en 3G. El futuro ya no es lo que era.

Escrito el 20 julio 2005 por Julian de Cabo en UMTS

Cuando era más joven, y aún más imprudente, dije en alguna ocasión que toda tecnología que no triunfa en seis meses es una tecnología muerta. Me refería, huelga la aclaración, a las tecnologías de la información que aparecen tras la explosión de los 90, y muy especialmente, a las propuestas lanzadas al mercado con posterioridad a la popularización de Internet.

De entre todos los ejemplos que se me ocurren, hay uno que resulta particularmente doloroso para los que hemos vivido esta industria, que es la tercera generación de telefonía móvil. Más conocida como “la 3G”, o por la sigla de la tecnología que iba a darle vida en Europa: UMTS.

La teoría generalmente aceptada suponía que tras el éxito de la generación analógica (1G) y la velocísima expansión de la primera generación digital (2G en el cómputo global, representada en Europa por el GSM), lo de la 3G iba a ser la explosión definitiva, con una eclosión de nuevos servicios y prestaciones que consolidarían a la telefonía móvil como el modo de comunicación preferido por los usuarios más sofisticados. Desde esa previsión de éxito a la adjudicación de licencias en cantidades millonarias hubo sólo un paso, que se cubrió muy rápido.

Pero unos años después de todos aquellos fuegos artificiales, seguimos sin tener noticias de la 3G, y las pocas que llegan distan de ser buenas.

Tal vez la última referencia llamativa en Prensa es la aparición de las primeras “Tarifas Planas” para 3G, que ya venían anticipadas por los últimos anuncios de las operadoras con relación a esta tecnología, que daban el protagonismo a tarjetas de datos para PC en lugar de a terminales telefónicos multimedia.

Así las cosas, de no quebrarse la tendencia que marca el mercado, la 3G empieza a ser para los usuarios, sobre todo servicio de acceso a datos, más que una plataforma de telefonía móvil.

Y puede que el cambio no parezca trascendente, pero las reglas de uno y otro mercado han sido diferentes. Y la más relevante de todas ellas, desde la óptica de negocio, es que el mundo de la voz móvil ha venido caracterizado por un consumo promedio variable y creciente mientras que el de los datos adoptó de manera universal el consumo fijo en formato tarifa plana hace ya unos años. Y ello tiene la parte positiva de que la cuota de abono suele ser más elevada que la de un servicio de facturación variable, pero también el inconveniente de saber de antemano lo máximo que podemos llegar a obtener de cada uno de los clientes.

Conoceremos de antemano ese máximo, a menos -claro está- de que aparezca algún servicio que se pueda cobrar en régimen de consumo variable, y que requiera de la tecnología 3G como base. Pero esa búsqueda ha venido siendo infructuosa desde el inicio. Parece ser que para lo único que los usuarios están demandando UMTS es para acceso a Internet, y que ni siquiera están renovando sus antiguas terminales GSM/GPRS por los nuevos modelos con UMTS.

Visto así, la sensación que le queda a quien contemple el mercado de las comunicaciones como conjunto es que la 3G ha perdido entidad individual para integrarse en un concepto ampliado de banda ancha donde converge y compite con tecnologías más baratas y rápidas … e incluso también inalámbricas como es el caso de ADSL o cable extendido mediante Wifi/Wimax.

Desde luego que todo esto no se ha producido en los seis meses que comentábamos al inicio del artículo, pero tampoco parece que los próximos días vayan a traer de la mano esa “killer application” que nunca llegó y que revitalice la 3G.

Qué consecuencias tenga todo ello en el largo plazo para el segmento movil o el conjunto del mercado de comunicaciones es aún una incógnita. Parece claro que mientras el móvil siga teniendo la estructura de costes que presenta en la actualidad, hay mucho beneficio a extraer del negocio de la voz, incluso cuando termine de madurar y caigan progresivamente los precios. Eso no cambia. Lo que sí cambia son las perspectivas. Tal vez, parafraseando a Paul Valery, el futuro de la 3G ya no es el que era antes.

19
Jul

Blogs, precios y Hayek… comunidades

Escrito el 19 julio 2005 por Ricardo Pérez Garrido en Comunidades / Communities

La gran facilidad que nuevas herramientas de publicación (wikis, RSS feeds) aportan a la colaboración para crear conocimiento (en términos económicos se trata de una reducción en los costes de transacción; pueden verse los trabajos de Coase o Williamson) han hecho posible la creación de proyectos como wikipedia o la popularización de los blogs como herramienta de comunicación personal y -cada vez más- empresarial.

En relación a este proceso de “democratización” del conocimiento muchos autores han intentado dar su punto de vista. Uno de los más interesantes viene desde una escuela de derecho, con el Prof. Sunstein y su libro “Democracy and the problem of free speech”, donde plantea una nueva forma de entender el proceso democrático basado en la riqueza que los individuos pueden aportar en un proceso comunitario de deliberación Este mismo proceso se produce con wikis, blogs y open source, aunque sustituyendo el interés en el bien común por un “conocimiento común”, o un proceso de creación/análisis/dispersión de ideas mucho más descentralizado que hasta ahora.

Cass Sunstein, profesor en la Law School de la Universidad de Chicago, está estos días escribiendo como guest editor en el blog de Lawrence Lessig, profesor en la Stanford Law School. Uno de los intereses principales del profesor Susnstein (con numerosos libros y artículos publicados) se centra en los usos de internet para fomentar conocimiento y cambiar el proceso democrático y de toma de decisiones políticas. En la misma línea el profesor Lessig intenta descifrar la evolución de los derechos de propiedad intelectual y su adaptación a las corrientes actuales de difusión de conocimiento y cultura.

La semana pasada Sunstein escribía acerca de la relación entre internet y la teoría de Hayek (premio nobel en 1974) del precio como regulador perfecto de mercados, en palabras de Sustein:

“Hayek claimed that any “price” is capturing the information and tastes of many people, in a way that will outperform the judgments of even the best experts. Hence prices do a lot better than any central planners”

… planteando el papel de wikis y blogs como agregadores de información y equivalentes al papel que los precios juegan en los mercados, pero en el entorno del conocimiento humano:

“Here’s a puzzle: How close is the analogy between the price system on the one hand and wikis, open source software, and even the blogosphere on the other? Where does the analogy break down?”

Si nos planteamos la agregación de información como mecanismo regulador de conocimiento, el papel de iniciativas como wikipedia.org o de compañías de agregación de fuentes de información como bloglines se convierte, más allá de una moda, en creadores de comunidades. Comunidades de conocimiento que pueden tener un valor muy importante para actividades que antes se desarrollaban de forma centralizada, como el proceso democrático o la evolución de un producto/servicio.

El primer ejemplo es fácil: ayuntamientos y organismos de gobierno local en general tienen en internet y en herramientas de agregación de conocimento herramientas perfectas para hacer realidad procesos de democracia directa: en lugar de poner en una pared del ayuntamiento los beneficios del nuevo polideportivo, puedo organizar un sitio en internet donde se aclaren esos beneficios y los “contribuyentes/ahora opinantes” expresen sus inquietudes. Esto presupone una sociedad “conectada”, de lo cual estamos todavía lejos. Pero también un cambio radical en cómo se toman decisiones en estos entornos.

El segundo ejemplo es más complejo, y entronca con mi anterior artículo sobre innovación: algunas empresas ya están pendientes de qué se dice sobre ellas en estos medios. Este proceso, integrado en la gestión de clientes de una compañía concreta, puede producir grandes beneficios: más allá de las encuestas y los grupos de usuarios, tener acceso directo a lo que los clientes opinan del producto, cómo lo usan y, sobre todo, como lo modifican para que les resulte más util. Ejemplo: la industria del videojuego, donde las modificaciones que los jugadores realizan pasan en muchas ocasiones a “informar” la siguiente versión que sale al mercado.

Volviendo al inicio, el mecanismo de agregación de información que se está desarrollando en este momento alrededor de wikis y blogs, y que reproduce el fenómeno de la creación de software con “libertad de uso”, lo que se ha llamado open source, implica que quizás, más allá de modas, esto de la Web 2.0 signifique un paso importante hacia la democratización del conocimiento y la participación por ciudadanos anónimos en la creación de nuevos servicios y productos de información antes centralizados. Implica también la generación de oportunidades empresariales alrededor de esta democratización que seguramente muchas compañías no están preparadas para aprovechar, ancladas en la debacle del e-business y en identificar estos cambios como una nueva moda pasajera.

Las comunidades de conocimiento que se están creando impactan no solo la forma de comunicarnos, sino también el proceso que las industrias relacionadas con esta creación y dispersión de conocimiento deben/pueden seguir para tener un papel en este nuevo escenario.

Utilizamos cookies propias y de terceros para mejorar nuestros servicios y mostrarle contenido relacionado con sus preferencias mediante el análisis de sus hábitos de navegación. Si continua navegando, consideramos que acepta su uso. Puede cambiar la configuración u obtener más información aquí. Aceptar