Archivo de la Categoría ‘Gestión de Tecnologí­as / IT Management’

9
Feb

A New era for Kodak

Escrito el 9 Febrero 2007 por Ricardo Pérez Garrido en Gestión de Tecnologí­as / IT Management

In the last ten years Kodak lost more that 80,000 employees. It has recently sold one of its most profitable business, the health imaging unit. And now they are anouncing another reduction in workforce of more than 10% (see a reference in
Business Week ). But they are optimistic they finally got the digital world right and are ready to compete.

They just entered the printer business (see a reference in the NY Times), competing face to face with HP (the company part of the top management is coming from), and trying to change the business with cheaper cartridges, the space where everybody was making a lot of money now.

Kodak is a great example of how changes int he market can send you a lot of signals and you can ignore them, just because you are sure you are the best and change is not needed. The “all digital” world is reaching every space of your life, which means that you will interact with most of the companies offering services and products for you and your company, at some point of this interaction process, by a digital channel. The question for most companies today could be if they are ready for this evolution, and for those offering digital communication, if they are doing all they can to put themselves at the middle of this flow of interactions and transactions, making it simple for the customer, and branding this position as something valuable for the customer.

Probably you are thingking that the answer is no. Kodak, by changing completely its structure is communicating to the market that they are making the effort to understand what the customer interaction with imaging is going to be in the near future. Success is not clear, but the fact that they focus, in the printer business, on something that was clearly demanded by some heavy users of the product is a good sign. This time they are listening a little bit better to the market.

7
Feb

Steve Jobs y el DRM

Escrito el 7 Febrero 2007 por Julian de Cabo en Gestión de Tecnologí­as / IT Management

Justo cuando esta mañana he acabado un artículo más largo sobre Jobs y el iPhone del que tanto comentamos hace unos días, vuelve a la carga el patrón de Apple haciendo ese tipo de reflexiones apabullantes que le caracterizan. Supongo que parte de su secreto está en mirar el mundo con los ojos simples de un niño.

El artículo completo está en Apple donde puede ser leído en su totalidad, cosa que sin duda merece la pena. Pero no me resisto a destacar dos ideas que todos teníamos en la cabeza: la primera es … ¿cuanta de la música almacenada en iPods está comprada en iTunes y por consiguiente almacenada con total respeto del DRM impuesto a Apple por la industria? La segunda es … ¿merece la pena el esfuerzo de inversión en DRM cuando por definición todo lo que puede verse u oírse es digitalizable por definición?

La respuesta de Jobs a la primera es simple: sólo un 3% de la música que funciona en los iPods está comprada en iTunes. El 97% restante llega al dispositivo procedente de fuentes no protegidas con DRM. La segunda es obvia: Apple sería la primera interesada en vender en iTunes sin tener que hacer el esfuerzo de mantener su tecnología DRM en funcionamiento.

Y por detrás de todo ello la pregunta de siempre … ¿y el cliente? ¿No resulta el más perjudicado por esta entelequia del DRM?

19
Sep

Intel se reinventa de nuevo

Escrito el 19 Septiembre 2006 por Julian de Cabo en Gestión de Tecnologí­as / IT Management

En algunas ocasiones hemos hablado de Intel como ejemplo de compañía que se viene constantemente reinventando a sí misma a lo largo de los años. Si no recuerdo mal, lo hicimos por primera vez con un comentario sobre la obsolescencia programada, allá por el inicio de este año.

Ignoraba entonces que después de verano Intel anunciara uno de esos cambios que propone al mercado cada muchos años, pero así ha sido. Hoy se presentaba ante el sector en España la arquitectura Intel vPro, que tiene todo el aspecto de ser un punto de inflexión en la historia del coloso de los chips.

No es sólo una reducción más de la escala de fabricación, ni un aumento de las cachés o la arquitectura de buses, sino algo que va filosóficamente mucho más allá. Puedo equivocarme en la valoración, pero se trata de una plataforma completa cuyo foco, muy en línea con las tendencias de lo que preocupa en las empresas, no está sólo en las prestaciones, sino en el conjunto prestaciones/gestionabilidad/costes de explotación. Se deja de lado la carrera del Gigahertzio que nos llegó de la mano de los juegos y la multimedia, y se propone una plataforma nueva con unas capacidades de gestión remotas simplemente impresionantes. Muy a tono con el concepto de empresa extendida que estamos manejando, y con la necesidad de los departamentos de IT de soportar usuarios de todo tipo y en unos ámbitos cada vez más amplios.

En un mundo donde ya la mayor parte del coste de los sistemas está en el mantenimiento, parece que llega la hora de poner un punto de racionalidad, y el primer paso está dado. Habrá que esperar unos meses a ver qué acogida comercial tiene la propuesta de Intel, pero incluso pensando en el soporte externo para las pymes que no pueden costearse un departamento interno de IT, la nueva arquitectura puede suponer un alivio.

¿Supondrá también el paso definitivo en la unión comunicaciones e informática? Es dificil responder a eso taxativamente, pero es evidente que son mundos cada vez menos separables.

6
Jun

Una de las cosas que se terminan por aprender en la gestión de la informática personal es que el feliz acto de compra de un nuevo ordenador termina siempre con un desagradabilísimo proceso de transferencia de información entre la máquina que se desecha y la que viene a ocupar su lugar.
Muchos de ustedes sabrán a qué me refiero: horas de aburrimiento supino (y a más aburrimiento más probabilidad de errores) dedicados a transferir datos y programas entre una máquina y otra. Un proceso que muchos hemos vivido muchas veces y que crece en angustia a medida que se incrementa la cantidad de datos transferida y la incertidumbre de si se está obrando correctamente o no. En los peores casos estamos hablando literalmente de días de trabajo con un resultado incierto. No sé si la sensación llega al punto de incidir negativamente en la venta de nuevo hardware, pero siempre que me toca pasar por ahí acabo preguntándome lo mismo: “si esto es lo que sufrimos los pretendidos expertos, ¿qué sentirá la gente normal cuando le toque hacer esto?”.
En esta línea de problemas y soluciones, lo que me resulta curioso comprobar últimamente es cómo muchos usuarios avanzados aplican técnicas de empresa para solventar en parte el problema, y despliegan en sus casas desde hardware de almacenamiento en red hasta verdaderos servidores compartidos de archivos. Cualquier cosa que les permita tener a salvo al menos los ficheros de datos.
Y si esta es la actitud del usuario doméstico, hay que reconocer que desde la industria se empiezan a plantear alternativas. Tan distintas como los “Media centers XP” que en el fondo son algo bastante parecido a pequeños servidores multimedia domésticos, los discos de red que se despliegan aprovechando la electrónica del ADSL, o mil gadgets más que empezamos a ver como oferta habitual en el canal de venta de electrónica de consumo. Todo un punto de partida, un síntoma o una tendencia, da igual como queramos llamarlo.
Aunque tal vez lo mejor de todo sea que para redondear el círculo, empezamos a encontrar propuestas para sacar la información de casa y dejar que sea otro quien se ocupe de su gestión. Al menos, en mi opinión, iniciativas como los correos con Gigas de capacidad, los almacenes específicos como Youtube o Google Video, los espacios gratuitos para bloggers, los calendarios compartidos o tantas otras propuestas como vemos aparecer a diario, no son más que modos de ir migrando hacia la red los datos que manejamos a diario con muchas de nuestras aplicaciones. A lo que últimamente, no lo olvidemos, se suman propuestas como las de procesadores de texto u hojas de cálculo donde incluso el software que genera los datos está alojado directamente en la red.
Visto de ese modo, hay al menos dos grandes propuestas de “Gran Almacén Digital” apoyadas por cada parte de la industria: los que quieren que sigamos gastando el dinero en llenar nuestra casa de nuevos cacharros, y los que nos proponen que confiemos en ellos para guardar toda nuestra información.
¿O a lo mejor todo ello es compatible si miramos a cinco años desde la óptica de un gran ancho de banda omnipresente?

2
Feb

La pyme digital

Escrito el 2 Febrero 2006 por Julian de Cabo en Gestión de Tecnologí­as / IT Management

Hace ya casi diez años desde que el Instituto constituyó junto a Caja de Madrid, Hewlett-Packard, Microsoft, Telefónica y Telefónica Móviles, el Consorcio para el Desarrollo Tecnológico de las Pymes. Lo recuerdo bien porque fue el primer proyecto grande que me tocó dirigir, y porque hasta ese momento nunca me había preocupado especialmente el fenómeno de las pequeñas y medianas empresas.

En aquellos momentos, las seis empresas aunaron esfuerzos para, en primer lugar, intentar entender qué era la pyme española en realidad y, partiendo de ese conocimiento, intentar favorecer su entrada en el mundo digital.

La primera sorpresa que me llevé fue la importancia del peso relativo de las pymes en el conjunto de la economía española, que en aquella época superaba el 70% en aportación al PIB, y el 90% en generación de empleo. La segunda, tal vez fuera la altísima tasa de mortalidad a los tres años que presentaban estas empresas.

El caso es que al acabar la fase analítica las conclusiones fueron parecidas a “la pyme es casi todo en España”, y “la tecnología en empresas cuya mayoría tienen menos de cinco empleados no puede ser la misma que en una empresa de mayor tamaño”. Tanto es así, que uno de los criterios que llegamos a barajar para definir lo que era pequeña empresa en términos de tecnología era “empresa que no tiene un responsable de informática”.

Al cabo de los años, sigo volviendo a veces sobre aquella idea que tan dificil hacía impulsar la informatización de las pequeñas empresas. ¿Cómo hacer que se use tecnología, si no tienen quien sepa soportarla mínimamente?. Y creo que no supimos ver cual era el camino. Pensar que lo que debíamos recomendar eran unos servidores “x” con unas comunicaciones “y” usando un software “z” era en realidad plantearse el problema desde la oferta, en términos de ofrezcamos lo que creemos que necesitan. Y tal vez lo que hicimos fue aumentarles los problemas en lugar de solucionárselos.

Tal vez la pequeña empresa sea aquella que nunca querrá un programa de contabilidad porque prefiere meter las facturas en un sobre para llevarlas a su gestor. Con lo cual tal vez lo que debamos hacerle no sea una contabilidad más fácil sino un sobre electrónico para que no tenga que ir físicamente a llevar las facturas.

Lo que sí parece claro es que, por fín, disponemos de una infraestructura lo suficientemente sencilla como para ofrecer esos servicios sin provocar dolores de cabeza adicionales. Lo que falta es ver quien se atreve a unir todas las piezas y convertirlas, pero de verdad esta vez, en soluciones.

17
Nov

Offshoring

Escrito el 17 Noviembre 2005 por Julian de Cabo en Gestión de Tecnologí­as / IT Management

Otra de las palabras con las que resulta inevitable encontrarse últimamente en cuanto uno se mueve un poco en el mundillo de las TI y de sus gentes es “offshoring”. Y como casi siempre que se acuña una novedad, casi nadie sabe con precisión lo que significa, pero todo el mundo pone cara de estar en ello desde hace años.
Aunque a veces uno se tropieza con personas cuya solidez profesional da de sí lo suficiente como para decirte con sinceridad aquello de: “mira, Julián, ¿sabes por qué se le llama offshoring y no offshore?”, “pues porque todos decimos que lo estamos haciendo, pero casi nadie se anima en realidad”. Añadía mi interlocutor que lo más lejos que estaba dispuesto a llevarse el offshoring era a Alcobendas.
Demoledor, ¿verdad?. O al menos no parece concordar mucho con la visión de Arcadia feliz que nos pintan los que hablan en positivo del fenómeno.
Intentando hacer un balance ecuánime de ambos extremos, parece claro que una estrategia que contemple la gestión de parte de los sistemas en ese régimen presenta una primera gama de ventajas que son las asociadas al coste. Y probablemente también a la flexibilidad. Realmente, lo único que soy capaz de verle como diferencial con relación al outsourcing clásico es la posibilidad de asociarlo a temas de RSC intentando pasar negocio a países en vías de desarrollo.
En contra estaría fundamentalmente el pánico a la pérdida de control que implica, acrecentada en los casos en que el offshoring esté relacionado con desarrollos software de misión crítica. Pánico que no deja de tener su lado simpático, considerando las cosas que hemos visto con herramientas software aparentemente seguras y 100% certificado. Seguro que más de uno de mis lectores recuerda un simulador de vuelo incluido en un procesador de texto comercial y cosas por el estilo.
Y la consideración que no tanta gente se hace al evaluar el fenómeno es que en muchos casos, el código que se obtiene con contratos de ese tipo no es mucho más que una colección de algoritmos procedentes del dominio público chapuceramente ensamblados por personal de dudosísima cualificación.
Pero tristemente es casi seguro que el gestor encargado de supervisar los números del departamento de sistemas va a sentirse mucho más cómodo en ese epígrafe que si la misma cantidad va en otro.
Y es que, nos guste o no reconocerlo, el nuestro es también un mundo de modas.

Utilizamos cookies propias y de terceros para mejorar nuestros servicios y mostrarle contenido relacionado con sus preferencias mediante el análisis de sus hábitos de navegación. Si continua navegando, consideramos que acepta su uso. Puede cambiar la configuración u obtener más información aquí. Aceptar