La tecnología WiMax móvil recibió esta semana un importante y necesitado respaldo. Esto se debió a que Sprint anunció un spin off de sus operaciones de banda ancha inalámbrica basadas en esta tecnología que se combinó con Clearwire, Intel, Google y varios operadores de TV por cable en los EE.UU. (entre ellos el número uno, Comcast, y Time Warner Cable). La nueva empresa, que llevará el nombre de Clearwire, se formó en base a una "vaquita" de US$ 12 mil millones, y esperan estar cubriendo a aproximadamente la mitad de la población de aquel país en dos años.
A Sprint esta movida le quita de encima el peso de tener que desarrollar la mayor red de WiMax móvil en soledad. Esto es más importante aún en momentos en que tiene problemas con su negocio tradicional de telefonía móvil que le está dando sus buenos dolores de cabeza. Para Clearwire implica tener acceso a una red mucho más grande de la que podía desarrollar por sí sola. Intel logra participar de una infraestructura que le permita potenciar las ventas futuras de sus notebooks, que traerán incluidas las capacidades de conexión WiMax (como hoy lo hacen con WiFi). Google se asegura una red de datos móviles que le permita una base para su plataforma Android para dispositivos móviles (hablar de teléfonos es anticuado en este caso), desarrollando aplicaciones para Internet móvil. Al mismo tiempo, logra acuerdos de proveedor preferido para aplicaciones de Internet de Sprint y Clearwire. Y para los operadores de cable significa acceso a redes móviles, previendo quizás ofertas cuádruple play por parte de sus competidoras telefónicas. En fin, en teoría al menos, todos ganan.
El éxito de esta nueva empresa será clave para el destino de la versión móvil de WiMax. No sólo por lo que pueda implicar como leading case, sino también porque será fundamental en el desarrollo de economías de escala que permitan que el costo de esta tecnología baje lo suficiente como para facilitar su difusión. En síntesis, una gran apuesta con jugadores muy importantes, cuyo devenir será digno de ser seguido de cerca.
El uso de Internet para establecer comunicaciones de voz sigue aumentando a ritmo sostenido, habiendo pasado de un 17% de los usuarios de la red en Argentina a un 22% en un año. En términos absolutos, significa un crecimiento del 51%, superando los 3 millones de personas, debido al aumento de la base de usuarios de Internet. Esto surge del informe "Uso de Internet: contenidos y transacciones - Segmento individuos 2008", realizado por Carrier y Asociados.
En cuanto al software utilizado, si bien sigue dominando el uso del MSN Messenger, éste retrocedió de un 71% a un 64% en el último año, al tiempo que creció la popularidad de Skype que pasó de un 29% a un 32%. Messenger es más fuerte entre los usuarios más nuevos mientras que la proporción va cambiando hasta llegar a un 62% en los usuarios más antiguos, más propensos a usar Skype. Su uso para establecer comunicaciones de larga distancia se da con más fuerza entre quienes habitualmente se conectan desde cibers. Claramente, es en los cibers donde más se busca el ahorro que este tipo de comunicaciones genera.
Por otra parte, resulta interesante observar que prácticamente uno de cada tres usuarios de VoIP realiza llamadas locales. Aquí lo que prevalece son otros factores, como la disponibilidad y el contacto desintermediado.
Nadie puede dudar de que el desarrollo de las redes 3G abre las puertas a un mercado no tradicional para los operadores de redes celulares como los son las notebooks y el acceso móvil a Internet. Primero fue a través de dispositivos conectables vía USB, pero sin dudas un fuerte impulso vendrá de la mano de la incorporación de esta capacidad directamente en la notebook. Así, se está desatando una guerra por llegar al corazón de la electrónica de las portátiles, incorporando esta funcionalidad "de fábrica".
Dentro de las múltiples batallas de esta guerra, esta semana Qualcomm se anotó un importante triunfo luego de que empresas como HP, Dell y Lenovo anunciaran que algunas de sus notebooks incorporarán hacia fin de año el chipset Gobi, que les permitirá conectarse indistintamente a redes 3G, sean éstas HSDPA o EV-DO. Al ser "binorma", se evitan las incompatibilidades entre ambas tecnologías y se facilita tanto el roaming internacional como la migración de proveedor del servicio. Cabe recordar que HSDPA es lo que se utiliza en Europa y gran parte del mundo (incluyendo Argentina), mientras que EV-DO es más popular en EE.UU. y algunos países asiáticos.
Esta noticia tiene un aspecto positivo y otro negativo para Intel, uno de los principales impulsores de WiMax. Por un lado, las mayores capacidades de conexión sin dudas serán un incentivo para la demanda de notebooks, de las cuales es uno de los principales beneficiarios. Sin embargo, la existencia comercial de tecnologías alternativas pone presión sobre el desarrollo de WiMax móvil, tecnología que si bien tiene mayor ancho de banda, todavía no tiene redes en funcionamiento comercial. Y si bien está previsto que este año comiencen a estar disponibles notebooks con capacidades WiMax (así como hoy sucede con WiFi), la falta de redes para su uso es sin dudas una debilidad. Los próximos 2 años serán decisivos.
Mientras tanto, no debería llamar la atención que cada vez más los operadores celulares comiencen a vender notebooks, y que, repitiendo lo que hacen con los teléfonos, subsidien su precio para incentivar el consumo de datos. Habrá que estar atentos.
En los últimos tiempos se repiten las noticias de lanzamientos de productos y categorías de productos que se ubican en la cada vez más atestada franja que va desde el celular tradicional hasta la notebook. Por lo visto, hay dos variables que inciden en el uso y sustitución entre estos equipos que son su uso principal (voz o datos) y su tamaño (móvil o portátil).
En cuanto al uso, está claro que la voz es el terreno en el que brilla el celular tradicional. En el caso de los smartphones, si bien tienen esta capacidad, no es raro ver a sus dueños llevando dos dispositivos, siendo típicamente el segundo un celular tradicional que es utilizado únicamente para la voz. Esto dejará de ocurrir en la medida en que los smartphones sigan en el camino que recorren actualmente y que los lleva a ser más livianos y delgados, y sus diseños menos aparatosos. No obstante, aún en el caso del iPhone se puede observar este fenómeno ya que según un estudio realizado en los EE.UU., uno de cada tres usuarios del smartphone de Apple lleva consigo también un teléfono. De hecho, y más allá de su novedosa interfaz, el iPhone se destacó por haber logrado aumentar de manera significativa el consumo de datos. O sea que claramente el mismo es más un dispositivo multimedia conectado que tiene capacidad para comunicaciones de voz que un teléfono inteligente.
Avanzando en el camino que va de la voz a los datos, está claro que las categorías que siguen, como los MID (Mobile Internet Device), las UMPC (Ultra Mobile PC) o las subnotebooks, son claramente equipos de datos, más allá de que cuenten con la capacidad o potencial de establecer comunicaciones de voz.
En cuanto al tamaño, la línea divisoria puede establecerse en el punto en el cual un equipo deja de ser móvil para pasar a ser portátil. Por equipo móvil consideramos a aquellos que pueden ser transportados en un bolsillo (generando más o menos bulto) y a su vez ser operados con una sola mano llegado el caso. Esta combinación les permite ser utilizados en movimiento, mientras se camina. Equipos como las UMPC, MID y ni que hablar de subnotebooks, claramente requieren de algún medio adicional de transporte (cartera, bolso, maletín) y de las dos manos para su operación.
Visto así, se puede entender porqué categorías como la UMPC no prendieron entre los consumidores y porqué los PDA definitivamente cedieron su lugar a los smartphones. En cuanto a los MID impulsados por Intel, la primera generación de esta categoría todavía tiene una inclinación muy fuerte por los datos más que por las comunicaciones de voz. Pero la voz sigue siendo un servicio muy valorado mientras se está en movimiento. Así, estas categorías intermedias (UMPC, MID, subnotebook) se convierten, por ahora, más en sustitutos de las notebooks que de los celulares. Lo que se dice, un proceso de destrucción creativa.
Una de las tendencias modernas en materia de software y aplicaciones es lo que se conoce como cloud computing. Se trata de una alternativa a tener servidores locales o dispositivos personales (PC, celular, etc.) alojando a las aplicaciones del usuario. En este caso, se asimila el concepto de cloud o nube a la red, típicamente Internet. Esto ya puede verse en el caso del mail, donde la opción a una aplicación que reside en la PC como el Outlook o Thunderbird (por sólo citar a algunos) es un webmail como Hotmail, Yahoo o Gmail, a los que se accede simplemente a través de un navegador (como Explorer, Firefox, Opera, Safari u otro).
Esta tendencia es la que actualmente enfrenta a Microsoft con Google. Microsoft es el exponente máximo de aplicaciones tradicionales que residen en el dispositivo (caso Outloook, Office y otras), por más que esté tratando de incursionar en aplicaciones basadas en la Web, pero siempre haciendo equilibrio con su negocio tradicional. Por su parte, Google tiene una estrategia basada en la Web, que se manifiesta no sólo en su Gmail sino también más recientemente en los Google Docs, que no es otra cosa que un conjunto de aplicaciones (procesador de texto, planilla, etc.) que están alojadas en la red. La ventaja de este modelo es que tanto aplicaciones y documentos están disponibles desde cualquier dispositivo que tenga un navegador, quedando la administración de aplicaciones y contenidos en manos del proveedor y no del usuario. La desventaja es que es fundamental la disponibilidad de conectividad constante, con un piso de ancho de banda para que las cosas funcionen apropiadamente.
El tema con las aplicaciones online es cómo se financian. Aquí hay distintos modelos. En algunos casos, especialmente en aplicaciones verticales, se paga un abono mensual que varía en función de las características a las que se quiera tener acceso, la cantidad de usuarios y otras variables. Un claro modelo de software como servicio. Cuando se trata de aplicaciones más masivas y horizontales, generalmente éstas son gratuitas para el usuario. Así, típicamente el recurso para financiarlas por parte del proveedor es la inclusión de publicidad (cosa que se ve claramente en los webmails).
En estos días se está librando una batalla entre la computación tradicional y la de la nube en nuestras tierras, más específicamente en la ciudad de Buenos Aires, donde tanto Microsoft como Google pelean por ser los proveedores de aplicaciones para las escuelas de la capital argentina. Y aparentemente la gratuidad de Google Docs es un atractivo de peso frente al modelo tradicional de licencias por uso de software de Microsoft.
Habrá que estar atento a lo que ocurra en este campo, ya que podría ser un leading case interesante y relevante en caso de que se adopte el modelo de la nube.
Es inevitable que la incorporación del uso de Internet impacte en otros hábitos, no sólo porque permite hacer determinadas cosas de una nueva manera sino también porque existe un recurso escaso como es el tiempo. A fin de cuentas, el día sigue teniendo 24 hs., con lo que un mayor uso de Internet será en detrimento de otra actividad.
Resulta interesante observar que dentro de los cambios que se originan por el uso de Internet, el mayor impacto se da sobre dos industrias muy cercanas: la telefonía y la TV. Un 35% de los usuarios de la red afirma que como consecuencia de su uso habla menos por teléfono, mientras que un 30% dice mirar menos TV. Esto surge del informe “Uso de Internet: contenidos y transacciones - Segmento individuos 2008”, recientemente finalizado por Carrier y Asociados.
En la lista de cambios de hábitos registrados, no sorprende que en tercer lugar aparezca el hecho de dejar de comprar CD, mencionado por 23% de los usuarios. Un nuevo indicador que refleja lo que ya todo el mundo sabe: la industria discográfica la está pasando muy mal con Internet. Más lejos, con un 8% de las menciones, aparece la pérdida del hábito de comprar el diario. No obstante, proporcionalmente este porcentaje es mayor si se tiene en cuenta que la base de quienes lo hacen es menor a la de las personas que hablan por teléfono, miran TV o compran CD. A modo de consuelo para los diarios, no es que perdieron a estos lectores, sino que simplemente ahora acceden a la información a través de Internet y no del papel.
Más interesante que los porcentajes en sí, hay un dato que marca que esta tendencia a la sustitución llegó para quedarse y es que todos estos valores son más altos en la medida en que desciende la edad del usuario. Esto da la pauta de que el proceso de cambio de hábitos sólo se profundizará en la medida en que los actuales jóvenes vayan creciendo y que las generaciones que los sigan se hayan criado en un mundo donde hablar por teléfono, mirar TV o comprar CD, entre otras cosas, sean cada vez más cosa del pasado.
Esta semana resultó interesante ver cómo se daba la discusión en los EE.UU. entre los proveedores de banda ancha (particularmente, el operador de TV por cable Comcast) y sus clientes usuarios de redes P2P, con la intervención de la mismísima FCC (el organismo regulador de las telecomunicaciones). La base de la discusión está en que Comcast restringe el ancho de banda a las aplicaciones P2P (algo similar ocurre aquí con la mayoría de los operadores de TV por cable) bajo el argumento de que las suyas son redes compartidas, por lo que si un grupo reducido de clientes consume mucho ancho de banda termina perjudicando al resto en un área geográfica determinada. En contraposición, los afectados denuncian trato discriminatorio, donde el ISP ofrece distintos anchos de banda en función del servicio utilizado.
En realidad, ambas partes tienen razón, pero la base del problema es estructural y responde a la modalidad de funcionamiento de las redes compartidas, que es la forma en que funcionan las redes de cable y las inalámbricas, no así las de ADSL o las redes de datos tradicionales. En las primeras, el ancho de banda se comparte dentro de un área geográfica (cuya cobertura física depende de la densidad de clientes). Por lo tanto, en la medida en que se suman clientes en el mismo área, el ancho de banda disponible debe ser compartido, algo así como más comensales para la misma torta. La solución: poner más tortas. En el caso de las redes ADSL, la conexión es dedicada hasta las instalaciones del proveedor. Aquí puede haber congestión, pero no en el tramo que llega hasta el cliente, sino más atrás en la red. En este caso, aumentar la capacidad resulta más fácil y económico, ya que no implica agregar nuevo cableado.
Volviendo a las redes de TV por cable o inalámbricas, al ser redes compartidas los problemas de congestión son bastante más graves ya que no pueden ser fácilmente resueltos. Hay que hacer nuevos cableados o poner nuevas antenas. Entonces, el exceso de tráfico puede "tirar la red abajo" si no se hace nada para limitar el apetito de los usuarios intensivos. Y esto es lo que hacen los operadores poniendo limitaciones al uso de aplicaciones P2P, una opción más rápida y económica que ampliar la capacidad de la red.
Esta disputa vuelve a poner en el tapete una discusión que se da internamente entre los proveedores de telecomunicaciones (sean telefónicas o cableoperadores) pero que no se animan a llevar al público porque es muy piantavotos. Y es el tema de cobrar por tráfico. Con tanta aplicación que usa intensivamente el ancho de banda (como P2P, streaming de video, etc.) será algo de lo que tarde o temprano se volverá a hablar.
En una breve aunque interesante entrevista publicada la semana pasada por el diario Clarín, Kevin Kelly, fundador de la revista Wired, deja una frase tan lapidaria como cierta: "todo lo que se pueda copiar ya no se va a poder vender". Por supuesto, dentro de esta realidad de la nueva economía, la música es un ejemplo paradigmático.
Si bien el fenómeno de las descargas de archivos musicales por Internet no es nuevo, se trata de un hábito que está fuertemente arraigado y es creciente, ya que prácticamente la mitad de los usuarios manifiestan hacerlo, lo que equivale a unos 7 millones de personas. Esto surge del informe "Uso de Internet: contenidos y transacciones - Segmento individuos 2008", recientemente finalizado por Carrier y Asociados.
Considerando el dispositivo donde esa música descargada es reproducida, la PC está desplazando claramente a los equipos de audio, ya que 3 de cada 4 personas que descargan música la escuchan directamente desde la computadora. En segundo lugar se ubican los reproductores de MP3, cuyo uso creció de un 23% en el 2006 a un 46% en el 2007, duplicando su presencia en un año, convirtiéndose en la segunda plataforma de reproducción, desplazando a los reproductores de CD de audio.
En cuanto al perfil del downloader, el mismo está influenciado por el desarrollo de la banda ancha, que en el último año tuvo un notable crecimiento en los segmentos socioeconómicos medio bajos, por lo que hoy esta última perspectiva dejó de ser una variable que correlacione. Por otra parte, como sucede con todos los nuevos usos de la tecnología, existe una influencia notablemente mayor en la medida en que los usuarios son más jóvenes. Además, esto confirma que se trata de un cambio de hábitos que implica que el negocio de la música deberá adaptarse de una vez por todas.
Habida cuenta del escaso éxito de los sitios de descarga legal de música, esto plantea claramente un escenario en el cual cada vez menos los consumidores de música estarán dispuestos a pagar por ésta. Así, el accionar persecutorio de la industria discográfica está condenado al fracaso, mal que les pese a los principales afectados por estos cambios en hábitos y valores. En su lugar, la industria deberá transformarse, resignándose a que la venta la música en sí misma deje de ser tan relevante para potenciar otras fuentes de ingresos como recitales o merchandising.
Por estas horas, se está jugando el destino de WiMax. No porque esta tecnología vaya a desaparecer (lejos de esto), sino porque se está definiendo si será una tecnología masiva o si será una de nicho, complementaria de otras más difundidas. Por supuesto, sus impulsores, con Intel a la cabeza, esperan que sea masiva, con su versión móvil compitiendo con las alternativas 4G, con LTE a la cabeza.
Por esto mismo, el anuncio en su momento de que Sprint migraría toda su red a WiMax (a un costo de entre 5 y 6 mil millones de dólares) se convirtió en el leading case para esta tecnología. Y así se entienden las dudas que surgieron cuando, a fines del año pasado, se dio marcha atrás en el acuerdo por el cual Sprint y ClearWire (otro proveedor con WiMax en los EE.UU.) compartirían sus infraestructuras para aliviar los costos del despliegue de la nueva tecnología. La base del abandono de este acuerdo estuvo en que a ambas empresas se les complicaba conseguir el financiamiento necesario. Más allá de los directamente involucrados (Sprint y ClearWire), esta marcha atrás encierra una gran amenaza para Intel, quien viene apostando fuertemente a esta tecnología para la cual provee chips y que espera incluirla en forma estándar en sus notebooks durante este año, aspirando a que logre el mismo desarrollo que la tecnología WiFi, actualmente un básico en todas las portátiles.
Con tanto en juego, no llama la atención que diversos medios de negocios en los EE.UU. afirmen que se está gestando un nuevo acuerdo en aquél país por el cual Sprint y ClearWire se asociarían nuevamente (quizás bajo otros términos) y recibirían una sustancial inversión por parte de Intel, la cual rondaría los US$ 2 mil millones de dólares.
Cabe recordar que tiempo atrás, Intel definió a WiMax como "la cosa más importante desde la Internet misma", por lo que esta fuerte apuesta tiene sentido. No obstante sigue siendo una apuesta, por lo que el éxito no está garantizado (en general nunca lo está). Así, los próximos meses serán decisivos para Sprint, ClearWire, Intel y todos aquellos que pusieron fichas (algunos más, otros menos) a WiMax.
Esta semana se confirmó lo que ya parecía inevitable [ver Comentarios n° 253 - "And the winner is..."], la derrota de Toshiba en la guerra de formatos de DVD de alta definición a manos de Sony y su Blue-ray. Más allá de las razones por la cual se impuso uno y perdió el otro, la pregunta que surge es: ¿será tan importante este estándar como lo fue en su momento el VHS, o más aquí, el DVD?
Para Sony, si bien esta victoria de formatos significa una reparación a la herida narcisista que le provocó perder, décadas atrás, cuando se definía el estándar para video, con su Betamax a manos de VHS, surgen las dudas de si será tan trascendente. Cuando se definió el estándar de video y luego de DVD, no había competencia para el consumo de contenidos en video bajo demanda. Hoy la situación es bien distinta, con operadores de TV paga (pocos aún en Argentina) ofreciendo servicios on demand, y en los mercados más desarrollados incluyendo contenidos en alta definición (HD). Así, los nuevos DVD en formato Blue-ray no estarán solos. Pero además, pasará un tiempo hasta que haya un recambio significativo de los reproductores (sin contar a los televisores, porque este es un requerimiento para todos) y, en menor medida, que los contenidos estén grabados para usufructuar las ventajas de la alta definición.
En un mundo donde los anchos de banda son crecientes y sus precios decrecientes, la ventana de oportunidad que se le abre a Blue-ray es acotada. Hay que imaginar que si el DVD recién se estandarizó en diciembre de 1995 y 12 años después ya tiene un sucesor definido, al ritmo de evolución de la tecnología, el mercado de Blue-ray tendrá un tiempo de desarrollo aún más acotado, antes de que los anchos de banda necesarios para transmitir contenidos de alta definición sean prácticamente ubicuos.
Mientras todavía existen sectores que se empecinan en negar lo que la tecnología ha hecho una realidad, el uso de Internet para consumir video sigue creciendo a pasos agigantados. Y sin dudas el 2007 fue el año del gran salto en este rubro en Argentina. Esto surge del informe "Uso de Internet: contenidos y transacciones - Segmento individuos 2008", recientemente finalizado por Carrier y Asociados.
La reproducción de videos online (streaming) creció de un 15% de los usuarios a un 50%. Así, y considerando el crecimiento de la base de usuarios, se pasó de casi 2 millones de consumidores de videos online a 7 en sólo un año. Y para 1 de cada 4 consumidores de videos online, ya se trata de una actividad que realizan diariamente. Su consumo aumenta notablemente en la medida en que desciende la edad, tendencia que seguramente influirá en el consumo de TV para los próximos años, donde los usuarios requerirán cada vez más consumo bajo demanda y amplia variedad de contenidos. YouTube, con el 75% de las menciones, es por lejos el sitio de videos más popular.
Por otra parte, 1 de cada 4 usuarios descarga videos (un 80% más que el año pasado), con un 5% del total de usuarios (aproximadamente 700 mil personas) que lo hacen constantemente. Esto se da con más intensidad entre los usuarios más jóvenes y de NSE más bajos. Por supuesto, el ciber no es el ámbito más popular para hacerlo, ya que se trata de un proceso que suele llevar varias horas. Y si bien casi 3 de cada 4 las reproducen directamente en la PC, algo menos de la mitad las copia a un DVD para verlas en un televisor. Esto tiene que ver también con la tenencia de una PC, ya que los usuarios de ciber y de trabajo que graban en DVD más que duplican a los que tienen como principal acceso al hogar. O sea, descargan en el ciber o trabajo y luego reproducen en la TV del hogar.
No se trata de hablar del club de fútbol donde milita la esperanza Messi ni de la canción que grabó Freddie Mercury con Monserrat Caballés, sino del congreso que realizó la GSMA (GSM Association) durante esta semana en la ciudad catalana. Quienes siguen de cerca el mercado de las comunicaciones móviles habrán visto toda clase de noticias y de informes sobre lanzamientos, ausencias y declaraciones respecto de esta industria. Como es sabido que las comunicaciones propiciaron la muerte de la distancia, intentaremos hacer un resumen de lo más significativo que quedó de una semana ajetreada en función de lo publicado en diversos medios.
Lo más saliente a nuestro criterio fue el cambio radical de foco de la industria en menos de un año. Mientras el año pasado todos los expositores demostraban productos vinculados a la TV móvil, este año hubo un baño de realidad y la tecnología apenas si fue mencionada. Afortunadamente, la industria percibió a tiempo que se estaba aventurando en terra ignota y decidió desensillar hasta que aclare. Su lugar en cambio fue tomado por dos aplicaciones que tienen sí muchísimo más sentido: acceso móvil a Internet y geolocalización.
El acceso desde el móvil es claramente la evolución natural de Internet, que si tan útil nos es desde ubicaciones fijas, tanto o más debería serlo en movimiento, amén de la probable sustitución que se dé en algunos casos. Todavía deben mejorar las redes, los dispositivos, las interfases, sistemas operativos y las aplicaciones, pero es un territorio notoriamente más firme que la TV móvil.
Por el lado de las redes, la opción LTE (evolución natural el UMTS) parece haber recobrado fuerzas como opción 4G, más aún cuando WiMax genera ciertas incertidumbres luego de que su leading case, Sprint Nextel, se viera envuelto en problemas, tanto internos (llevando al reemplazo de su CEO) como en su asociación con ClearWire para ampliar los alcances de su red. Así, se comienza a instalar el debate de si WiMax (especialmente su fragancia móvil) es una tecnología destinada a ser masiva o si sólo será para operaciones en mercados con determinadas características de nicho. Por otra parte, LTE recibió un fuerte respaldo por parte de Qualcomm, quien a pesar de impulsar su propio estándar 4G (el UMB), anunció que sus futuros chipsets incluirán LTE, lo que permitirá (en teoría) facilitar la migración a LTE de operadores con UMTS, HSPA y EV-DO al mantener compatibilidad hacia atrás con sus dispositivos y estaciones base. Quizás mucho tuvo que ver en esta decisión que ningún jugador de los pesados se decidió por UMB. Algo así como "si no puedes con ellos, úneteles".
El de los dispositivos es sin dudas un mercado con una dinámica propia y muy acelerada. Por supuesto hubo un gran número de teléfonos post-iPhone, con pantallas de mayor tamaño y sensibles al tacto, lo que además genera un rediseño de las interfases montadas sobre los más diversos sistemas operativos (Symbian, Windows Mobile, Android). El problema aquí, y ya lo comienzan a manifestar algunos operadores y proveedores de contenidos, es la diversidad y fragmentación de plataformas, que generan complicaciones desde el punto de vista de soporte y compatibilidades. Por eso en los próximos tiempos se oirán crecientemente voces bregando por la necesidad de operar al menos con entornos abiertos y estandarizados.
Si bien a algunos les llamó la atención su ausencia, lo cierto es que la no presencia de Apple no fue sorprendente. A fin de cuentas, no tiene nada nuevo para mostrar, luego de varios meses de su iPhone en el mercado y una cobertura mediática inédita. Sin embargo, el resto de los competidores le están haciendo llegar el mensaje de que deberá acelerar el ritmo presentando nuevas versiones, ya que el iPhone naturalmente está perdiendo momentum, y Apple aún no terminó de lanzar su iPhone en todos los principales mercados.
En cuanto a la geolocalización (GPS y demás yerbas), es sin dudas el terreno natural de los servicios para quien está en movimiento. Que se le preste más atención es un agregado más que bienvenido que abre un enorme abanico de oportunidades en lo que a aplicaciones se refiere.
La convergencia fijo-móvil no podía quedar de lado, y poco a poco pareciera que vendrá por el lado de femtocell (pequeñas celdas celulares instaladas en la casa del cliente y conectadas por banda ancha) que tienen la ventaja de funcionar con los terminales existentes en detrimento de las variables híbridas (típicamente, celular más WiFi). El tema acá seguramente vendrá por el lado de las discusiones respecto del posible impacto de la radiación de la mini celda, viniendo no ya de la terraza o de un edificio vecino sino desde el mismo living en el hogar.
Ciertamente hubiera sido mucho más atractivo ir a Barcelona, pero al menos, Internet mediante, uno igual se entera de lo que pasó.
Mientras Yahoo se hace el que deshoja la margarita esperando una oferta superior por parte de Microsoft, la empresa de Gates no se detiene y sigue avanzando en múltiples frentes. Dentro de éstos, sabe que el del negocio celular no es para dormirse, por lo que anunció esta semana la compra de Danger, un fabricante de smartphones que apuntan al mercado de consumo, más particularmente a jóvenes y adolescentes, cuyo producto emblema es el Sidekick, comercializado en EE.UU. por T-Mobile, con bastante éxito en el segmento.
La transacción se encuadra dentro de la tendencia, creciente y acelerada, hacia la proliferación de dispositivos de mano que accedan a información y entretenimiento disponible en Internet (base de la estrategia comunicacional reciente de CTI en Argentina). Esta capacidad está destinada a tener un impacto importante en la popularidad de los smartphones, por lo que MS no quiere perder el tren, más allá de su actual presencia con Windows Mobile.
El problema con este último es que ha logrado una buena popularidad (no tan buena quizás para lo que MS está acostumbrada en el mundo de las PC) en los dispositivos que apuntan a usuarios de negocios. No obstante, el mercado de consumidores parece haber comenzado su despegue con el lanzamiento del iPhone como estandarte, que si bien no fue el primero fue el que más impacto causó. En el mercado de usuarios de negocios, Blackberry es claramente el rey, aunque Microsoft cuenta con la ventaja de estar presente en los dispositivos de diversos fabricantes (Motorola, Samsung, HTC, HP, Palm, Qtek y otros), lo que le da margen para aumentar su participación en el futuro.
Lo interesante del caso es que los tres fundadores de Danger fueron ingenieros en Apple, uno de los cuales se retiró de la empresa años atrás para fundar Android, antes de que fuera adquirida por Google. Esto da la pauta de que hay una buena base de conocimiento de la conjunción de electrónicos de consumo con comunicaciones móviles.
De esta forma, Microsoft se beneficiaría con el know how para desarrollar aplicaciones e interfases más amigables para el usuario final, especialmente en el segmento joven, que es el que impulsará claramente el crecimiento de lo que Intel bautizó como MID (Mobile Internet Devices). No obstante, será interesante observar si decide entrar también en el negocio de los terminales, así como lo hiciera en el de consolas de juego tiempo atrás. Sería una jugada riesgosa ya que sus actuales clientes de Windows Mobile podrían cerrarle las puertas a sus dispositivos.
Esto se está poniendo cada vez mejor...
En la lucha por definir la norma que se impondrá en formatos de DVD para alta definición, todo indica que la suerte ya está echada y que sólo falta la oficialización. Los laureles son esta vez para Sony y su formato Blue-ray, quien así cambia de rol luego de su derrota, años atrás, en el terreno de los formatos de videocassette.
El abandono del formato HD DVD en el mes de enero por parte de Warner pareció ser la estocada final para el estándar impulsado por Toshiba. Y si bien Toshiba respondió bajando radicalmente los precios de su reproductor HD DVD a la mitad, esto no alcanzó para lograr una recuperación en las ventas, que representaron menos de 1/3 del total de los reproductores de DVD de alta definición.
Hoy, sólo dos de los seis más grandes estudios siguen apoyando al formato de Toshiba: Universal y Paramount. A esto hay que sumar un dato no menor que es que la semana pasada, dos minoristas claves en los EE.UU. como Best Buy y Netflix anunciaron que únicamente soportarían el formato Blue-ray de Sony, basándose en el apoyo de los estudios y las preferencias de los consumidores.
Ante este estado de situación, son cada vez más intensos los rumores en los EE.UU. de que finalmente Toshiba aceptará su derrota y que anunciará oficialmente el abandono de esta carrera en las próximas semanas. Más allá de las bondades de uno y otro formato, sin dudas la existencia de un estándar único se convertirá en el impulsor del formato de alta definición, lo que beneficiará no sólo a la industria sino también a los consumidores.
Desde hace tiempo circulaban rumores que indicaban un interés de Microsoft por Yahoo. Por esto, el anuncio de la oferta de la primera por las acciones de la segunda no fue sorpresivo. Pero sí lo fueron algunos detalles de oferta, que marcan que definitivamente el mercado tecnológico ingresó a una nueva era, una en la cual Microsoft no quiere abandonar su lugar como empresa emblema y referente. Tarea más que difícil tiene por delante.
Evidentemente, Microsoft se siente amenazada por el creciente poder de Google. Y esta sensación es la que llevó a la empresa de Gates a lanzar una oferta hostil (a pesar de haber tenido conversaciones durante el 2006 y 2007 de fusión o asociación), cansada quizás de las indefiniciones de Yahoo que sólo lograban retrasar la estrategia de MS y depreciar el valor del portal. Y para tratar de acelerar el trámite, lo que propone pagar MS tiene un sobreprecio del 62% respecto del valor de mercado en aquel momento. De esta forma, ni los actuales accionistas de Yahoo deben meditar demasiado, ni los posibles competidores interesados en el buscador pueden llegar a igualar la oferta. Independientemente de esto, la gran duda que surge es si la unión de dos empresas en problemas (de distinta índole, como ya veremos) alcanza para competir con quien a todas luces surge como la empresa emblema en los años venideros.
Resulta paradójico que fuera justamente Yahoo la empresa que potenciara los primeros pasos de Google, cuando varios años atrás tercerizara en ésta el buscador de su portal. El crecimiento del buscador comenzó a ser exponencial y Yahoo terminó su relación con éste, pero ya era tarde. Google estaba lanzado. Al margen de esta anécdota, quizás el error de Yahoo fue que su estrategia tuvo mucho del paradigma offline, emparentado con las sociedades de masas, apuntando a lograr un gran portal que ofreciese acceso a múltiples y diversos servicios y contenidos. Un esfuerzo titánico y diversificado que así como le sirvió para crecer en los primeros tiempos de Internet, luego se convirtió en un lastre. En contraposición, Google entendió rápidamente que el negocio estaba en subirse sobre la red de contenidos dispersos y generados por las más diversas fuentes. Por eso no generó contenidos sino software que le permitiera apalancarse sobre éstos. Así, en los últimos tiempos Yahoo creció por debajo de lo que lo hacía el mercado de Internet, comenzando a perder participación relativa. Hoy, Yahoo ya no es lo que fue, independientemente de su relevancia en los EE.UU. así como de la popularidad de su servicio de mail. Los resultados no la acompañan, y los últimos tiempos fueron más de replanteos estratégicos y de recortes que de otra cosa.
Por su parte, Microsoft está en una posición infrecuente, ya que habitualmente era quien marcaba el ritmo en la industria, pero el avance de Google en los últimos tiempos logró que perdiera la iniciativa y ahora actúe en función de lo que Google hace (o deja de hacer). En Microsoft tienen claro que el modelo que le sirvió para crecer y ubicarlos en un lugar central de la era de la PC no es el apropiado para triunfar en la era de Internet. Por eso, desde hace unos años ya, está explorando nuevos negocios, como el de las búsquedas, los sitios de video, la venta de publicidad y hasta las aplicaciones online. Sin embargo, tantos esfuerzos dieron pocos resultados. Por ejemplo, la participación de mercado mundial de Microsoft en las búsquedas a fines de 2007 fue de apenas el 3%, contra el 62% de Google y 13% de Yahoo. Así, su generosa oferta por Yahoo equivale a admitir, tácitamente, que le está costando más de lo pensado encarrilar su negocio online.
Cuesta percibir a Microsoft como una empresa en problemas habida cuenta de su posición dominante en sistemas operativos y aplicaciones de escritorio así como con sus pilas de cash disponibles para financiar cualquier iniciativa. Pero el problema de Microsoft no es de corto plazo, sino de mediano y largo, en la medida en que las aplicaciones migran desde el dispositivo hacia la red, como ocurrió primero con el mail y lentamente comienza a suceder con el resto (tal el caso de las aplicaciones de escritorio como Google Apps), y más aún si ese modelo se basa no en un pago único o en un abono sino en la venta de publicidad, llegando gratuitamente al usuario. Aquí, la capacidad de conseguir esa publicidad que financie los servicios es clave, y es lo que Google viene manejando a la perfección. Mientras tanto, los dos principales productos de Microsoft dan muestras de envejecimiento: ni el Office 2007 ni Windows Vista generaron mucho entusiasmo. En el caso de Office porque se sabe que un altísimo porcentaje de sus usuarios sólo usan una proporción ínfima de sus capacidades, con lo que la última versión no generó interés. El caso de Windows es similar, aunque con mayores ventas porque es un componente obligado en toda nueva computadora. Pero son ventas que igualmente se hubieran hecho con XP, siendo que éste es un producto ya amortizado. Y no hay que olvidar que Vista fue el sistema operativo más criticado de Microsoft del que se tenga memoria, a pesar de la impresionante campaña de marketing desplegada en su lanzamiento.
Cada era de la tecnología tuvo a su empresa dominante, y el cambio de era por el cual estamos atravesando encierra la posibilidad cierta, concreta y probable de que Microsoft pierda su trono. En la primera era de la informática, cuando lo clave eran las grandes computadoras, IBM reinó sin oposición. Luego vino el momento de las PC, y fue Microsoft, no IBM (a pesar de haber desarrollado la primera PC) quien ocupó su lugar. IBM fue perdiendo gravitación hasta terminar vendiendo su negocio de PCs y reorientándose hacia los servicios, donde es hoy un jugador importante pero en definitiva es uno más de los top. Ahora, en la era de Internet, Microsoft está en proceso de perder su trono ante Google. En Internet no importa el dispositivo que uno tenga, siempre y cuando pueda acceder a la red y a sus servicios. Así, da lo mismo que sea una PC con Windows, una Apple con Safari, un Linux con Firefox, un celular, un iPhone, una consola Wii con Opera o cualquier combinación de hardware y software. Que sea de Microsoft o no es totalmente irrelevante siempre y cuando respete los estándares de la red. Así, el activo principal de Microsoft, su presencia en prácticamente toda PC, se ve seriamente devaluado. Es más, hasta el nombre de Microsoft atrasa: software para microcomputadoras... huele rancio.
Todavía es muy temprano para saber si efectivamente la operación entre Microsoft y Yahoo se concretará. Parece difícil que pueda surgir un tapado que quiera competir con MS, aunque habría que ver qué tratamiento recibirían desde la perspectiva antimonopólica, no sólo por parte de las laxas autoridades estadounidenses sino principalmente su contraparte europea, siempre más rígidas y que ya más de un dolor de cabeza le generaron a Microsoft.
Pero el tiempo corre en contra de Microsoft. No sólo por la aceptación de la oferta y su posterior aprobación, sino también porque la fusión de dos corporaciones con actividades y culturas diferentes no se producirá de la noche a la mañana. Y mientras todas las piezas terminen de encajar, Google seguirá capitalizando los efectos de red.
Su ventaja en lo que a tráfico de búsquedas se refiere es la base que atrae a los anunciantes y generadores de contenidos en la Web (y próximamente en las redes celulares), generando un círculo virtuoso. Entonces, así como los efectos de red favorecieron a MS en la era de las PC, hoy lo hacen con Google. Por lo tanto, en la medida en que más tiempo pase para completar la fusión, mejor para Google. Por otra parte, la ventaja que ya tiene Google exigirá no sólo que el tándem MS/Yahoo haga las cosas excepcionalmente bien. También deberán apostar a que Google tropiece en algún punto para acortar una distancia que hoy no para de crecer. Visto así, la apuesta de Microsoft parece muy alta y muy arriesgada. Es cierto que se juega su futuro, pero las probabilidades están en su contra.
Paradojas de los negocios, los roles se invierten. Microsoft, tradicionalmente el gran monopolista, acusa ahora a Google de posición monopólica. Y es cierto que la posición de Google, cada vez más fuerte, comenzará a despertar el interés de autoridades antimonopólicas en diversos países. Sin embargo, el argumento deberá ser distinto, ya que Google ofrece gratuitamente sus servicios, sin bloquear a sus usuarios. Quizás entonces los golpes vengan por el lado de la privacidad y del manejo de los resultados de las búsquedas (caso China-Tiananmen). Algo en lo que Google ha dado algunos pasos en falso. Bienvenidos a la nueva era.
Pareciera que existe una atracción natural en la política argentina por los proyectos faraónicos, la mayoría de los cuales generalmente no pasan del anuncio (y de algunos gastos en los primeros proyectos). A veces la cosa es peor, porque las obras terminan haciéndose pero a costos varias veces superiores a los originales, al igual que los tiempos de ejecución.
Es positivo que un país que en las últimas décadas ignoró a la ciencia quiera ahora recuperar el tiempo perdido. Un primer paso favorable fue la creación de un ministerio propio. Pero pasamos de ningunear a proyectar una obra que está muy por encima de lo necesario, como es el anunciado Polo Científico Tecnológico que agrupará cosas tan diversas como el Ministerio de Ciencia y etc., el CONICET, la Agencia de Promoción Científica, el Caicyt, un museo, un centro de convenciones, y otras cosas. Pareciera que se quisiera recuperar los montos no invertidos por décadas en un solo proyecto edilicio...
Carece de sentido que en pleno siglo XXI, donde el conocimiento (base de la ciencia y la tecnología) cada vez más fluye por redes electrónicas, querer aglutinar físicamente edificios como se hacía a mitad del siglo XX. Es preferible interconectar lo que ya hay y usar el dinero del polo en la actualización de los edificios existentes en vez de apostar a un modelo centralizado y totalmente fuera de época.
En momentos en que todavía se discute (¿negocia?) la posibilidad de que las empresas de telecomunicaciones ingresen al negocio de la TV paga (o TV de pago, como dirían en la Madre Patria), el mercado se encuentra preparado y hasta deseoso de recibir ofertas de triple play que incluyan telefonía, banda ancha y TV. Esto surge del informe "Acceso a Internet: Segmento individuos - 2007" finalizado recientemente por Carrier y Asociados.
La combinación de teléfono fijo, banda ancha y TV se da aproximadamente en 2 millones de hogares. Pero contabilizando a los hogares con usuarios de Internet que tienen dos de los tres servicios (teléfono y TV o teléfono e Internet), se suma otro millón de hogares. Así, en una primera etapa, y considerando a los hogares que cuentan con al menos dos de los servicios que componen este tipo de oferta, el mercado potencial de triple play es de alrededor de 3 millones de hogares.
Por lo tanto, no resulta llamativo que un 75% considere ventajoso tener un único proveedor que ofrezca los servicios que componen el triple play. Pero aquí no prima el encandilamiento tecnológico sino la racionalidad económica. Más de la mitad de los casos relevados, independientemente del nivel socioeconómico, considera que el principal atractivo de contratar todos estos servicios a un único proveedor pasa por lograr un mejor precio.
Pensando ya en paquetes de productos, a priori empresas como Telecom y Telefónica parecen mejor posicionadas para ofrecer una propuesta atractiva. Los servicios de telefonía fija e Internet obtuvieron valoraciones altas y muy parejas (alrededor de 8,4 puntos), claramente superiores a la que se le da al servicio de TV paga (6,5 puntos). Por lo tanto, no sorprende que a la hora de identificar el tipo de proveedor que más confianza inspira para contratar los tres servicios, surja claramente en primer lugar las empresas telefónicas, elegidas por el 37% de los encuestados. Éstas son preferidas en los niveles socioeconómicos más altos y en los segmentos más jóvenes de usuarios. Los casos que prefieren a las telefónicas duplican a aquellos en favor de un operador de TV por cable, quienes obtienen un nivel de menciones similar a los ISP.
Sin dudas que el que termina es un año de gran impulso al desarrollo de la banda ancha en el hogar (con un crecimiento cercano al 66%) y, a juzgar por las promociones y planes por parte de los actores involucrados, la tendencia seguirá fuerte el año entrante. Este desarrollo de la banda ancha es importante no sólo por la mayor conectividad que alcancen los hogares, sino porque también es parte fundamental de la infraestructura básica para la aparición de nuevos servicios que necesitan de ésta para existir. Así, no sería raro que en el próximo año comiencen a lanzarse propuestas de otros servicios basados en IP que no sean acceso a Internet, como telefonía IP (especialmente por parte de operadores de cable) y de IP TV (por parte de empresas de telecomunicaciones e ISP), regulación mediante. De esta forma, el 2008 podría ser, finalmente, el año del despegue de las propuestas triple play.
En los últimos años, el fenómeno del phishing obligó a que los bancos descartaran definitivamente los mecanismos que sólo requerían de una única clave para ingresar a los sitios de Internet Banking. Hoy la seguridad online requiere de cambios tanto en los hábitos de los usuarios como en los sistemas de los bancos. Por eso la implementación de un factor externo de identificación (actualmente tarjeta de coordenadas o token) ya es una realidad en los principales bancos. Otros recurren al uso de distintas medidas de seguridad tales como agregar segundas claves y/o preguntas de seguridad para realizar ciertas operaciones.
Sin embargo, desde la perspectiva de los usuarios, el uso de más de una clave para navegar el sitio bancario pesa más como un obstáculo, ya que el manejo que éstos hacen de las mismas está más orientado a su comodidad que a la seguridad. Esto surge del informe "Usabilidad en transacciones bancarias por Internet -2007" finalizado recientemente por Carrier y Asociados.
Una buena experiencia en el uso se nutre en parte del ahorro de pasos innecesarios para realizar cada tarea, mitigando el "fastidio" que el usuario siente al tener que superar medidas de seguridad durante el logueo así como dentro del sitio transaccional. La forma en que estas medidas de seguridad son requeridas tiene un alto impacto en la valoración y propensión al uso del canal online. Para los usuarios no es lo mismo que les exijan un paso extra de seguridad para realizar una transferencia a otro banco que para consultar su CBU (como ocurre en algún caso). Mientras que la primera medida, más allá de la incomodidad, les resulta comprensible, la segunda, suele impactar no sólo negativamente en la imagen del sitio sino en el uso del canal.
Los bancos, así como todo sitio donde se requiera de algún grado de seguridad, deben tener presente que el manejo sencillo es condición necesaria para transmitir credibilidad. La confianza y la percepción de seguridad (no la seguridad en sí misma) no sólo dependen de las medidas técnicas que el banco tome. Los usuarios deben tener sensación de control sobre el sistema, la manera en que éstas se presentan, comunican e implementan repercuten altamente en el uso del canal online, así como en la satisfacción con el banco.
Como se puede leer hoy en la mayoría de los principales medios del país, Telecom presentó ayer su servicio de videollamada desde el fijo (ya lo había hecho desde el celular con el lanzamiento de 3G). Haciendo un breve resumen, se trata de un teléfono IP con pantalla que se conecta vía banda ancha (de Telecom) aunque mantiene la numeración de la red fija tradicional. Esto último de por sí ya es toda una novedad. También permite realizar videollamadas hacia celulares de Personal.
Al ser un servicio que corre sobre banda ancha no es técnicamente una llamada telefónica, por lo que queda fuera de las regulaciones que atañen al servicio fijo. Así, si bien algunos podrán cuestionar que se cobre por minuto (siendo que no se trata de una unidad de medida en el mundo de la transmisión de datos) también es cierto que el precio del minuto ($ 0,35) es único para todo el país, o sea que es competitivo con otras llamadas si lo que se va a hacer (y parece lógico si lo que ser quiere es ver la cara del interlocutor) es una llamada de larga distancia nacional. Evidentemente, cobrar por minuto es simplemente una decisión comercial, no técnica ni regulatoria.
Pero más allá de lo vistoso que resulta ver al interlocutor (lo cual ayudará al negocio de la ropa diseñada específicamente para videollamadas), este anuncio trae a la luz otros aspectos tanto o más importantes.
Por un lado queda claro que la red fija de telefonía está en pleno proceso de migración hacia una red de banda ancha sobre la cual se irán montando nuevos servicios. Arrancó con Internet, ahora están las videollamadas, y seguramente seguirán los anuncios (como IPTV, entre muchos otros). Por otra parte, se trata de la primera generación de terminales que permitirán llevar servicios multimediales a los abonados sin necesidad de contar con costosas y sobre todo complejas computadoras personales, lo que abre el mercado a los millones de hogares sin PC. El Aladino VT, tal el nombre del equipo lanzado, es un equipo que al incorporar pantalla permite vislumbrar nuevos servicios sobre la rejuvenecida red telefónica. Ya hoy, con el nuevo producto, se tiene acceso a servicios como IVR en pantalla, donde el usuario ve las opciones que escucha de la típica grabación ("para ventas, marque 1, soporte, marque 2, etc.") bajo formato de menú. También habrá datos del tiempo y los servicios se irán ampliando con el correr de los meses. Esto es, a nuestro entender, mucho más trascendente que el servicio de videollamada en sí mismo.
De todos modos, para quienes nos criamos viendo los Supersónicos y pensábamos que se trataba de un futuro lejano, no deja de ser una muestra de los fascinantes cambios que se vienen dando en los últimos años.
Con preocupación por algunos y asombro por otros fue recibido el anuncio realizado esta semana por Google por el cual manifestó su intención de desarrollar y estimular la creación de tecnologías de energías renovables que sean más baratas que el carbón. De hecho, la iniciativa tiene el nombre RE<C que no es otra cosa que la forma matemática de expresarlo (por Renewable Energy cheaper than Coal).
La noticia generó que algunos analistas financieros consideren que Google ya tiene demasiado cash y que no sabe qué hacer con tanto dinero en sus manos. Otros fueron un paso más allá, afirmando que la peor amenaza para Google es la misma Google. No obstante, si bien no todas las iniciativas de Google terminaron siendo exitosas (como pasó con Google Talk o Google Video, entre otras), también hay que reconocer que tampoco tuvieron objetivos alocados. La pregunta que surge entonces es cuál es el interés en distraer recursos económicos y técnicos en un tema que no es central para una empresa cuyo negocio principal es la publicidad.
Es sabido que una de las claves de Google, más allá de su algoritmo de búsqueda, pasa por la disponibilidad de su propia red de servidores. Si bien el número exacto de servidores en operación es un misterio, se estima que rondan casi el medio millón. Y medio millón de PC consumen mucha energía, la cual es cada día más cara en la medida en que sube la demanda mundial, empujando su precio para arriba.
Una pauta de que el consumo energético de las computadoras es cada vez más un tema relevante también la dio esta semana HP, al anunciar que instalará en su fábrica de San Diego un sistema de energía solar para ahorrar en su factura eléctrica. También es conocida la estrategia de Intel de desarrollar procesadores que consuman cada vez menos energía. Con un barril de petróleo a casi US$ 100, la energía comienza a ser un renglón importante en la composición de los costos.
De avanzar exitosamente por este camino, Google podría lograr no sólo ahorros importantes en el consumo de energía de sus miles de servidores, sino que dispondría entonces de una tecnología licenciable que aporte nuevos ingresos. Y como broche de oro, podría utilizar esta imagen "verde" a su favor. Una combinación de ahorros, ingresos e imagen más que interesante.
Esta semana el mercado celular africano estuvo en las noticias debido a que se realizó la conferencia AfricaCom en Sudáfrica. Y no sólo porque se anunciaron inversiones por US$ 50 mil millones para la región subsahariana para los próximos 5 años. Lo atractivo del mercado africano es que allí tienen lugar desarrollos más interesantes que en el primer mundo, ya que la infraestructura celular viene a sustituir a otras de las cuales el continente carece.
Un ejemplo claro es cómo la infraestructura celular sirve como gran red de pagos e intercambio de dinero. Al no haber una red fija difundida que provea Internet y al no tener las redes de sucursales bancarias la extensión y capilaridad que sí tienen en otras geografías, los celulares son cada vez más un instrumento de pago. Al respecto bastante sabe el Standard Bank, quien tiene intenciones de replicar algunos de sus servicios en Argentina. A su favor cuenta con que en Argentina existe un muy importante mercado de individuos no bancarizados pero que sí tienen celular. En contra juega que Sudáfrica los celulares cuentan con chips SIM con características distintas a los locales, que permiten darle a los servicios financieros mayor seguridad y menores costos.
Por otra parte, es atractivo observar las experiencias de acceso a Internet desde el celular en un continente con una bajísima penetración de Internet pero con atractivas tasas de penetración de celular. Y lo más destacable es que hay que hacerlo a muy bajo costo. Por esto mismo, se está hablando de que para que la Internet móvil tenga éxito en África y otros países en desarrollo, tiene que funcionar en teléfonos básicos sobre redes GSM. Pero para esto, sostienen los entendidos, hay que dejar de pensar en el modelo de entretenimiento y placer característico de las sociedades económicamente desarrolladas para pensar en contenidos y servicios útiles que sean percibidos entonces no como costos sino como inversiones. Se trata de visiones sin dudas interesantes, aunque para nada sencillas de realizar.
No está mal que países como Argentina sigan los desarrollos de economías más avanzadas, pero también es cierto que para sociedades con altos contrastes como las latinoamericanas, las experiencias africanas pueden hacer aportes más que válidos.
Y pensando en nuevos modelos para la industria celular, también hubo un anuncio significativo en los EE.UU., que si bien no es ni cerca el mercado más desarrollado en este negocio, tampoco le faltan experiencias atractivas. Fue el caso del lanzamiento realizado por Amazon de Kindle, un libro electrónico que incorpora algunas novedades que merecen atención.
Dejando de lado su aspecto algo retro y de estética discutible, el Kindle es un terminal de Internet voluminoso y caro (US$ 399) con una pantalla grande y clara y un software de ebook (o libro electrónico). Lo interesante viene del lado de la conectividad, ya que incluye una conexión a la red 3G EV-DO de Sprint Nextel para que los usuarios descarguen el contenido en cualquier momento y lugar (dentro de los EE.UU.). Por lo tanto, prescinde de una computadora para cargar el contenido. No obstante, lo más novedoso es que el dispositivo funciona de entrada, sin basarse en un modelo de suscripción. La descarga de un best seller típico cuesta US$ 9,99, se baja en menos de un minuto, y no genera cargos por comunicación de datos adicionales. En otras palabras, el precio del libro incluye la conectividad necesaria para su descarga, sin que el usuario deba estar abonado al servicio de Sprint Nextel.
Para la industria editorial, la experiencia será valiosa. La distribución digital de libro presenta varios beneficios. El tema de la piratería no tiene ni por asomo las dimensiones que posee en otras industrias como la discográfica o la cinematográfica. Y los libros digitales pueden ahorrarle a los editores el costo de impresión, distribución y devoluciones. Quizás el punto de conflicto lo tengan las librerías, que podrían evolucionar hacia centros de impresión a medida. Un modelo de distribución de bits y no de átomos (thanks Negroponte).
Se trata entonces de un adelanto de lo que seguramente comenzaremos a ver en el futuro: equipos móviles monopropósito, con capacidades de conectividad embebidas, funcionando en base a un modelo de contenidos/servicios que incluirán el costo de la comunicación. Sin abonos ni suscripciones. Esto sería entonces sólo el principio. Como rezaba aquel viejo programa de TV, "atrévase a soñar".
A la ubicuidad del celular se suma ahora el crecimiento de las funcionalidades lo que extiende el potencial de sustitución del mismo hacia nuevas áreas en las telecomunicaciones. La sombra del celular que ya cubre a la telefonía fija avanza ahora hacia el acceso a Internet. Esto surge del informe "Análisis cualitativo de usuarios de telefonía móvil 2007", finalizado recientemente por Carrier y Asociados.
La sustitución del fijo por el móvil se da con más fuerza en los segmentos adolescentes y jóvenes. Éstos, acostumbrados a la comunicación directa y desintermediada que ofrece el celular, cada vez menos usan el fijo, y cuando lo hacen es mayormente por un tema de diferencias de tarifas. Por este motivo, es cada vez más común que si el fijo suena en su hogar, ni siquiera amaguen a atender: saben que no es para ellos. Así, estas generaciones de jóvenes serán poco proclives a contratar líneas fijas para sus hogares en el momento de su emancipación. Esta sustitución se vislumbra hoy en algunos hogares jóvenes unipersonales.
Otro indicio de este fenómeno es que cada vez más el celular es utilizado como teléfono de contacto en lugar del fijo. Jóvenes y adultos prefieren proporcionar su número móvil en vez del fijo ante una nueva relación ya que ofrece privacidad y ubicuidad.
También es interesante observar cómo el celular poco a poco se muestra como un sustituto/complemento del acceso a Internet desde una PC. Este fenómeno, que recién se comienza a dar, aparece especialmente en niveles socioeconómicos bajos. La causa está en que en estos segmentos no es raro que el celular sea el único dispositivo de comunicaciones que tienen (inclusive muchas veces no cuentan con un fijo en el hogar). Así, tienden a adquirir equipos de gama media y alta y son más propensos a pagar por contenidos y descargas ante la falta de una alternativa directa para estos consumos (léase la PC), como sí sucede en los segmentos medios y altos.
Esta última tendencia prepara entonces el terreno para la adopción de nuevos dispositivos móviles similares al iPhone o, como bautizó Intel, MID (Mobile Internet Device). En definitiva, equipos para acceder a contenidos, uno de los cuales es la voz, pero como una alternativa más dentro de un menú cada vez más amplio de posibilidades.
Luego de meses de especulaciones en torno al posible desarrollo por parte de Google de un teléfono celular propio (fomentado por el interés de la empresa por parte del espectro a licitarse en los EE.UU.), finalmente esta semana se terminó el misterio y quizás algún amante de los gadgets se haya sentido decepcionado.
Lo cierto es que Google develó cuál será su estrategia para ingresar de lleno en la industria de las comunicaciones móviles. Se trata del lanzamiento de Android, una plataforma de software que permite el desarrollo de aplicaciones para diferentes terminales de manera mucho más fácil. Además del software, lo importante es que el lanzamiento cuenta con el apoyo de la OHA (un nuevo acrónimo para la lista que significa Open Handset Alliance), una asociación de operadores móviles (China Mobile, NTT DoComo, KKDI, Sprint Nextel, T-Mobile, Telecom Italia, Telefónica), fabricantes de terminales (Motorola, Samsung, LG, HTC), fabricantes de semiconductores (Intel, Qualcomm, Texas Instruments, Nvidia, Marvel, Synaptics y otros).
Sin embargo, a diferencia de otros casos, esta nueva alianza tiene elementos que hacen que pueda ser exitosa. Para empezar, hoy Google es una empresa poderosa, con gran capacidad de desarrollo, y que promete tener gran parte de la plataforma lista antes de fin de año, a diferencia de otros anuncios donde los resultados concretos tardan mucho en llegar y se pierde el envión inicial. Por otra parte, esta plataforma será de fuente abierta, con lo que será gratuita y fácilmente customizable, algo que los fabricantes de terminales sabrán apreciar, ya que bajará el precio de sus productos.
No obstante, lo más interesante de este anuncio es que anticipa el fin de las plataformas de contenidos cerrados (o walled garden) tradicionalmente propiciadas por los operadores móviles. Con Android, al igual que sucede con las PC, los usuarios podrán elegir el software y los servicios a utilizar, independientemente del fabricante del terminal o del operador de la red.
Si Android cumple con sus objetivos, esto será una verdadera revolución en las comunicaciones móviles. Mucho, mucho más que lo que podría haber sido si Google hubiera lanzado su propio teléfono, como durante un tiempo muchos especularon sin razonar si esa movida tenía realmente sentido dentro de la estrategia de Google.
El beneficio de Google con esta movida no es vender software (ya que no lo hará) sino llevar a sus anunciantes a los celulares, convirtiendo a Android en una pieza más de su estrategia de aumentar sus ingresos al expandir sus mercados. Se trata de un camino similar al utilizado en el mundo de las PC, donde Google ofrece software y servicios gratuitos y obtiene beneficios a través de la publicidad customizada.
Si la movida da resultados, al precio de sus acciones habrá que verlo con un telescopio.
El SMS fue noticia esta semana por dos motivos: su inclusión por parte del INDEC dentro del consumo de servicios públicos y por su llegada a la telefonía fija.
El sólo hecho del ascenso de los SMS a la categoría de servicio público ya es noticia. Pero lo fue más aún por la aparición de las primeras cifras oficiales y consolidadas de las dimensiones de este servicio, dando por tierra con muchas especulaciones y cifras que a veces circulaban, a nuestro entender, sin demasiado sustento.
Quizás por la inexperiencia en su contabilización, claramente las cifras que publicó el INDEC están mal expresadas. Es que el instituto de estadísticas menciona 2.944.100 mensajes mensuales, aunque más razonable sería que fuera 2,9 mil millones (es decir, con tres ceros más). Deben haber sido los nervios del debut. Tomando esta última cifra y dividiéndola por los 37,5 millones de líneas móviles que menciona el informe, llegamos a un promedio de 2,62 mensajes de texto diarios por línea.
Por otra parte, el lanzamiento del servicio de SMS desde teléfonos fijos realizado por Telecom abre indudablemente nuevas posibilidades para los ya omnipresentes "mensajitos", si bien luego de la presentación a los medios hubo más escepticismo que entusiasmo. La comparación con los SMS desde el celular es inevitable. Las dudas provienen del precio del nuevo servicio así como de su conveniencia frente a la opción móvil.
El tema pricing no es menor. Con un precio de lanzamiento de 9 centavos para pasar luego a 18, este último es claramente superior a los entre 10 y 15 de los celulares, sin contar con que el precio unitario baja en el caso de los paquetes de mensajes. Pero a su vez, la relación de precios entre mensaje y llamado es claramente desfavorable en el caso del SMS fijo. Si bien es cierto que mucha gente manda SMS desde el móvil no porque sea más barato que hablar sino porque tiene otras ventajas (privacidad, no intrusividad, respuesta diferida), también hay que reconocer que su menor precio fue muy importante en la difusión y popularización del servicio. En el caso del fijo, el SMS es notablemente más caro, equivaliendo aproximadamente a 6 minutos de conversación.
Precios al margen, el atractivo del SMS en el fijo es mucho menor que desde el celular ya que el fijo carece de las ventajas del móvil en cuanto a privacidad de lo que se comunica y acceso directo al destinatario. El fijo es el teléfono familiar y compartido, el celular es personal. Por estas razones, la idea de tener SMS en el fijo no entusiasma demasiado, al menos no a aquellos que ya cuentan con un celular, según surge del informe "Análisis cualitativo de usuarios de telefonía móvil 2007", finalizado recientemente por Carrier y Asociados. En el relevamiento realizado se consultó a los entrevistados en relación a la posibilidad de usar el fijo para SMS y la mayoría descartó su uso justamente para que sus mensajes no quedaran al alcance de los demás habitantes del hogar. A lo sumo fue una opción interesante en el caso de adolescentes y preadolescentes que lo ven como una forma de comunicarse sin consumir el crédito de sus propios celulares, desviando el gasto al presupuesto familiar.
Para ser justos, no hay que ver a este nuevo servicio como un killer application que le permitirá a las empresas de telefonía fija aumentar sustancialmente su facturación. Más razonable sería entender esto como un primer paso en un proceso de convergencia entre el fijo y el móvil, donde las diferencias de servicio entre uno y otro comienzan a desaparecer hasta llegar a un punto en que esta división sea cosa del pasado.
Y para cerrar con lo acontecido en la industria móvil en mercados más desarrollados que da una pauta de lo que finalmente pueda suceder en el nuestro, fue interesante el lanzamiento por parte del operador británico 3 de un Skypephone (parece que las noticias de avanzada en servicios móviles se dan en aquel país). No es otra cosa que un celular optimizado para usar Skype a través de la red 3G de ese operador.
Lo interesante de este anuncio son dos cosas. Por un lado, el atractivo principal de Skype es que es gratis. Y por esta misma razón es que no genera demasiado dinero a sus accionistas. Así, surgen las dudas de los beneficios que le aporten esta movida. No está claro si Skype participa de los ingresos por ventas de terminales, en cuyo caso pasaría a formar parte del negocio del hardware.
Por el otro, si bien 3 puede lograr aumentar su base de clientes con este lanzamiento (que por el momento al menos, será exclusivo de este operador), lo cierto es que su movida va en contra de la dirección que tomó el resto de la industria y podría convertirse en un mero proveedor de tuberías para que fluya el contenido de terceros. En este sentido, 3 se parecerá más a un ISP que a un operador móvil. El tiempo dirá si esto servirá para presionar a sus competidores y, más importante aún, si fue una decisión correcta.
Desde hace mucho tiempo ya se viene hablando de voto electrónico, en un debate que estuvo principalmente confinado a vendors, especialistas en gobierno electrónico y algún que otro político de segunda línea. Pero muy poco se hablaba de este tema dentro de las grandes ligas. No obstante, luego del bochorno organizativo que resultó ser el acto eleccionario del domingo pasado, con ausencia de presidentes de mesa y fiscales, denuncias varias de partidos políticos y de ciudadanos en relación al manejo de las boletas, demoras en el acto eleccionario que se tradujeron en demoras en el escrutinio, el tema del voto electrónico volvió con fuerza esta semana. Inclusive la presidenta electa se manifestó a favor de avanzar en el estudio de este tema.
El uso del voto electrónico en países de la región con características demográficas, de infraestructura y de idiosincrasia similares al nuestro (como Brasil, Paraguay o Venezuela) demuestran que quienes se oponen con argumentos varios a esta medida están más preocupados por no alterar el status quo que en la modernización del país.
Sería bueno que estas elecciones hayan sido las últimas en que se votó con una metodología que es básicamente la misma desde hace 100 años. Sería un avance notable para la ciudadanía y la República.
Como lo viene haciendo semestralmente, esta semana Cisco presentó su “Barómetro de Banda Ancha en la Argentina”. Más allá de la desagregación de la información (por tecnología, zonas, etc.), no hay muchas sorpresas, ya que los casi 2 millones de líneas de banda ancha detectados coinciden con el 1,9 millón identificados por el INDEC (que más allá de que sea un poco más bajo, no creemos que se deba a las mismas razones de las diferencias en los índices de inflación).
No obstante sí nos pareció interesante hacer una observación en función de un dato que, a nuestro criterio, no es todo lo representativo que podría ser. El informe toma los 2 millones de conexiones y los aplica sobre los 40 millones de habitantes de Argentina, encontrando entonces una penetración de banda ancha del 5%. Si bien esto es matemáticamente correcto, en términos de indicador no es muy revelador. Siendo que se trata de un servicio residencial y no personal (como sí lo es la telefonía celular), la penetración no debería tomarse sobre la población sino sobre la cantidad de hogares. Con 10 millones de hogares en el país, la penetración sería entonces del 20%. En realidad, en base a las cifras expuestas por el Barómetro, la penetración es del 18%, ya que aproximadamente 1,8 millón de éstas están en hogares y el resto en organizaciones (nuevamente, en línea con la información del INDEC).
Si medimos conexiones sobre población, la penetración del servicio no podría pasar del 25%. Esto surge de considerar que el total de los hogares (los 10 millones) estuviera conectado sobre una población de 40 millones. Mientras que si medimos conexiones sobre hogares, entonces sí podríamos llegar, hipotéticamente, a valores del 100%.
Si, por el contrario, lo que se busca es determinar qué porcentaje de la población tiene acceso a banda ancha, tampoco la cantidad de conexiones es un parámetro. Aquí hay que considerar entonces la cantidad de personas que tienen acceso a banda ancha, independientemente del lugar. Así, no sólo hay que tener en cuenta a la gente que se conecta desde su hogar sino también a aquellos que se conectan desde cibers y locutorios así como lugares de trabajo. Tomado de esta forma, podemos afirmar que hay entre 11 y 12 millones de personas en Argentina que utilizan banda ancha, con lo que la penetración de la misma es de entre el 28% y 30% de la población del país.
Queda demostrado cómo tomando todas variables válidas, se pueden obtener valores totalmente distintos en función de lo que se quiera remarcar. Una especialidad de quienes nos dedicamos al manejo de estadísticas.
Es el que logró
Tener asegurado acceso consistente a espectro a nivel mundial representa un fuerte impacto para
En el caso argentino, existen pequeños operadores de TV paga en el interior del país que tienen asignadas las frecuencias necesarias (2,5 Ghz) para operar ahora con WiMax. Si bien no es razonable pensar que puedan dar servicios móviles (donde la cobertura es clave), sí puede ser una herramienta interesante para armar propuestas triple play fijas que permitan sumar servicios de comunicaciones al servicio de TV.
Volviendo al mundo móvil, se puede argumentar que esta versión de WiMax aún debe demostrar que funciona realmente (más allá de las pruebas), que sus costos son competitivos (cosa que muy probablemente suceda, sobre todo luego de este anuncio) y que tendrá un mercado relevante cuando esté definitivamente lista comercialmente. Pero sin dudas este anuncio tendrá a más de uno celebrando. Sobre todo en los EE.UU.
En la semana de Expocomm fue inevitable que en las distintas charlas se mencionara particularmente a los dos negocios estelares de las telecomunicaciones de los últimos tiempos: celulares y banda ancha. Particularmente en este último, las proyecciones de crecimiento para el año próximo realizadas por los operadores están en línea con el avance reciente, sin signos de desaceleración. No obstante, teniendo en cuenta la configuración actual del modelo de banda ancha, surgen algunos interrogantes que vale la pena analizar.
Para fines de este año se espera que la cantidad de conexiones de banda ancha alcancen los 2,5 millones, y en función de las proyecciones de los operadores para el 2008, la estimación para diciembre de ese año sería de unos 3,2 millones de conexiones. Considerando que un 10% de esas conexiones estén en el segmento de las organizaciones, tendríamos unos 2,9 millones de hogares conectados a banda ancha en poco más de un año.
Por otra parte, a fines de este año habrá unos 4 millones de hogares (40% del total) con al menos una PC, cifra que podría elevarse a los 4,5 millones a fines de 2008. Esto marcaría una cierta capacidad para absorber el crecimiento de las conexiones de banda ancha previsto para el año próximo. Pero (siempre hay un pero), existen aproximadamente 1 millón de hogares que tienen PC pero no se conectan a Internet. Aquí influyen diversos factores, como máquinas demasiado viejas o equipos aptos que dejaron de funcionar adecuadamente ante el impacto de virus, spywares y otros males, cuya solución a veces escapa al usuario básico sin conocimientos.
Visto así, para el 2009 estaríamos llegando a un techo de crecimiento. Pero este techo solo existirá si se sigue en el camino de una banda ancha que gira en torno a la PC. Otra alternativa es apuntar al electrónico presente en el 95% de los hogares argentinos: la TV. Surge entonces inevitablemente el tema del Triple Play, pero no ya como la posibilidad de dar servicios de televisión sobre la red de las telefónicas, sino como una forma de, además, permitir el acceso a Internet desde la TV.
Más allá de la adaptación regulatoria que esto requiere, también implica un cambio conceptual en el modelo de acceso a Internet: pasar de un terminal potente pero complejo (la PC) a uno más limitado pero simple (la TV). La idea es que el STB (set top box, conocido en estas tierras hasta el momento como decodificador digital) actúe de computadora/terminal y la TV simplemente de monitor. La ventaja de este modelo es que permite llegar a un público más amplio, que, parafraseando al ex presidente, no quiere, no puede o no sabe interactuar con las complejidades de una PC (actualizaciones de sistema operativo, manejo de firewall, antivirus y antispyware, etc.).
En este modelo, toda la complejidad queda del lado de la red, tal como hoy sucede con la red telefónica o la red de TV por cable o satelital. ¿Acaso alguno de nosotros tuvo que "actualizar" algo en su teléfono o TV para acceder a los nuevos servicios que se vienen dando en los últimos 15 años? Si este modelo funcionó tan bien para la telefonía y la TV, también debería hacerlo para Internet. Y más aún en un momento donde, además de los contenidos, cada vez más las aplicaciones residen en la red, tal como sucede con los webmail o, en una etapa inicial, con aplicaciones de oficina.
Estamos entonces frente a un momento clave en la convergencia, donde la misma se da tanto en los dispositivos como en las redes. De esta forma, el Triple Play ya no es sólo un modelo tecnológico que permite a las empresas de telecomunicaciones ingresar al negocio del entretenimiento. Es también un modelo que puede tener un profundo impacto en el desarrollo digital de la población. Es difícil oponerse a esto.
En definitiva, no tiene sentido hablar de Triple Play, ya que esto implicaría acotar las posibilidades a tres servicios (telefonía, TV e Internet). Pero la convergencia de redes y dispositivos hará que esta división, que responde a modelos de redes que tienden a desaparecer, carezca de sentido.
Cuando se habla de Triple Play, se está pensando en el modelo de redes tradicional pero obsoleto. Aquél que tenía una red para cada servicio: una red para telefonía, una red para TV, una red para datos. Pero nadie que hoy estuviera desplegando una red desde cero (y estuviera en su sano juicio) diría que está construyendo una red de telefonía o una red de cable. Más bien estaría armando una red de comunicaciones, una red IP o una red de banda ancha. Y claramente sería una red multiservicios.
Estas fronteras que desaparecen entre las distintas redes se ven también en los servicios. Si uno habla por Skype, ¿es telefonía o es datos? Igual pregunta si lo que se hace es una videoconferencia. Si uno mira un video en YouTube, ¿es Internet o es TV? Y si mira televisión en vivo en Terra TV, nuevamente, ¿es Internet o es TV? Y si el identificador de llamada (el famoso caller ID) aparece en la pantalla de la TV, ¿es telefonía o es TV?
La dificultad para responder a estas y otras preguntas no hace más que evidenciar que las diferencias entre operadores de TV paga y empresas de telecomunicaciones (algunas dando telefonía y otras sólo datos) sólo representan un modelo propio del pasado y con olor a rancio. Aunque suene trillado, el futuro es hoy. Por más que algunos insistan en negarlo.
En función del comentario anterior, queda claro que hablar de Triple Play implica entonces una convergencia tecnológica de redes y servicios, lo cual es muy distinto de un paquete comercial de servicios que llegan por distintas redes. Tal el caso de ofertas conjuntas de servicios de TV satelital con acceso de banda ancha y telefonía por redes de cable. En esta categoría entran los combos de DirecTV-Telecom recientemente anunciados para Argentina, así como ofertas de TV satelital con telefonía e Internet terrestre realizadas en otros países de la región por Telmex y Telefónica.
Estas ofertas tienen por único objetivo cubrir los distintos servicios, intentando aumentar la fidelidad de los clientes. Pero carecen de dos de las principales ventajas del Triple Play puro: los mejores costos de construir y operar una única red con una única tecnología (lo que a su vez puede redundar en mayores bajas de precio en un escenario competitivo) y la integración de los servicios (por ejemplo, mensajería en la pantalla de la TV).
Así, el Triple Combo no es Triple Play sino un claro ejemplo de quiero y no puedo (o no me dejan).
Como todos los años, esta semana se realizó una nueva edición de Expocomm, la exposición y congreso que convoca al mundillo de las telecomunicaciones y negocios vinculados. No haremos mención a la exposición en sí, ya que naturalmente estas suelen aburrirnos, y más en Argentina, donde evidentemente no hay tanto know how sobre como demostrar y vender (cosa comprobable por cualquier que haya asistido a muestras de este estilo en economías más desarrolladas). Así, el recorrido suele tener su punto más llamativo en las voluptuosas promotoras, si bien nos queda la duda de cuán útiles son para atraer prospects y no hombres en plena ebullición de testosterona.
Por el lado del congreso, se dieron charlas muy interesantes en cuanto a temática si bien, como suele suceder, a veces el nivel de los oradores es dispar, no por lo que dicen (que también los hay) sino en cómo lo dicen. Pero ciertamente hubo mucho destacable.
Quedó la sensación de que las empresas de telecomunicaciones no utilizaron demasiado la ocasión para reforzar su posición en cuanto a las demandas, especialmente la habilitación para dar servicios de "radiodifusión" (palabra antigua si las hay para lo que busca definir). Esto contrastó notablemente con el alto perfil de los reclamos realizados apenas unas semanas atrás por los operadores de TV por cable en las jornadas de ATVC.
Quizás esto demuestre quién está tranquilo y quien está inquieto en relación al futuro próximo...
En los últimos meses, quizás como no había sucedido anteriormente, los debates y argumentaciones en cuanto a la formación de monopolios como consecuencia de adquisiciones parciales y totales están a la orden del día. Y cobró más fuerza como resultado de la guerra dialéctica entre cableras y telefónicas por las intenciones de estas últimas de dar servicios Triple Play.
El primer caso importante fue la fusión de Cablevisión y Multicanal. El mismo evidencia que para despertar inquietudes no hace falta tener el 90% del mercado (de hecho, entre ambos operadores no llegan al 50%). Lo que sucede es que el mercado de la TV por cable tiene la particularidad de estar muy atomizado en términos de actores (gracias a los cientos de pequeños operadores que dan servicio en localidades pequeñas). No obstante, un importante número de éstos, sin importar su tamaño, operan en condiciones cuasi monopólicas, teniendo a la TV satelital apenas como un sustituto parcial. En el caso particular de Cablevisión y Multicanal, desde la perspectiva del cliente esto no implica un cambio significativo, ya que de hecho la superposición de sus redes es menor. Así, la mayoría de sus clientes tienen hoy las mismas opciones en servicios de TV paga que tenían antes de la fusión. En consecuencia, que ambos funcionen como uno o por separado, no cambia nada para la mayoría. Distinto es el impacto en el caso de los proveedores de señales, quienes con esta unión ven crecer sustancialmente el poder de negociación de un gigante de la TV por cable. Así se entiende porqué los proveedores de señales ven con muy buenos ojos que las telefónicas ingresen al mercado de la TV paga. Se sumaría un nuevo canal de distribución al tiempo que un elemento de presión en sus negociaciones con el mega cable.
El segundo caso relevante es el ingreso de Telefónica al grupo de accionistas de Telecom, resultado de una operación llevada a cabo a nivel internacional con lógicas repercusiones en el mercado local. Olvidemos por un instante lo que dicen las condiciones de privatización de ENTel, ya llegaremos a este punto. También si la participación de Telefónica en Telecom Italia alcanza para regir sus decisiones. Es más, supongamos que Telefónica lograra el control total y absoluto de Telecom, para imaginar una situación similar a la que ocurre en el caso de Cablevisión y Multicanal. ¿Qué cambiaría desde la perspectiva de los usuarios? Realmente muy poco, ya que ambas empresas operan también en condiciones cuasi monopólicas (con el sustituto imperfecto de la telefonía IP o de los celulares). Hoy prácticamente nadie (salvo en lo más alto del segmento corporativo) tiene la opción de contratar a Telecom si está disconforme con Telefónica o viceversa. Por lo tanto, nada cambia para el usuario si ambas empresas operan como una sola o por separado. Sí hay diferencia en algún subsegmento del segmento corporativo y más aún en el caso de otros operadores que necesitan interconexión y compran conectividad a Internet o salida internacional, por ejemplo.
Queda claro así que la existencia de múltiples empresas operando cada una en condiciones monopólicas en su área de influencia, no es muy distinto (desde la perspectiva del usuario) de éstas fusionadas pero sin cambiar los términos de relación monopólica con sus clientes. Con esto lo que se busca demostrar es que no tendremos un mercado con más competencia por el solo hecho de que hayan más empresas operando como consecuencia de impedir fusiones. Para que haya más competencia lo que hace falta es una adecuada regulación de la apertura del mercado, materia en la que nada se avanzó en los últimos 6 años.
A modo de ejemplo, tomemos el caso de Francia, que como tantos países europeos tuvo durante décadas un operador telefónico monopólico y estatal hasta su privatización en la década de los 90 (similar a lo que ocurrió en Argentina con ENTel). Hoy, si bien France Télécom (FT) sigue siendo el incumbente, la regulación de las telecomunicaciones de aquel país dio lugar a la existencia de nuevos operadores, los cuales están ofreciendo hoy servicios de triple play sobre la red de FT gracias a la desagregación del bucle (entre otras medidas). Así, Francia es hoy uno de los casos más exitosos de oferta de triple play sobre redes telefónicas: los usuarios tiene múltiples opciones y los precios bajaron considerablemente, a tal punto que un paquete triple cuesta alrededor de 135 pesos argentinos (con telefonía fija ilimitada a varios países con portabilidad numérica, TV con 100 canales, algunos alta definición, 22 Mb de acceso a Internet, etc.).
En otras palabras, en el caso particular de las telecomunicaciones fijas, lo que se necesita es una regulación que fomente la existencia de competencia en un negocio que naturalmente tiende a la concentración. Y la forma más efectiva de hacerlo no es impidiendo las fusiones. Esto se debe a que el alcance del servicio prestado por cada empresa está limitado a la cobertura de su red (cosa que no ocurre con otras actividades donde los frenos a las fusiones sí son un arma efectiva para garantizar la competencia). Así, es más efectivo que el Estado regule la apertura, evitando la tentación del abuso del poder dominante. Y que, por supuesto, también se ocupe de que esta regulación se cumpla. Si no, no será más que un papel escrito que puede catalogarse como ciencia ficción (como tantos otros que andan dando vuelta).
Una mención final para aquellos que esgrimen el argumento de la ilegalidad, basándose en determinadas normas existentes que favorecen su postura. Hay que tener presente que las condiciones de entorno van cambiando, lo que a veces genera que las leyes terminen teniendo un efecto contrario al buscado. Así, lo importante no es respetar la letra de la ley sino su espíritu. Y que si una ley fue dictada en su momento para garantizar la competencia, es esto lo que hay que buscar y mantener. Si, por cambios en las condiciones de entorno o simplemente por ineficacia, hace falta cambiar la letra de la ley no es grave, si lo que se mantiene vivo es el espíritu de la misma. Para eso están los legisladores. Se supone.
Esta semana se produjo una noticia que no tuvo quizás demasiada repercusión, si bien puede ser un punto de inflexión importante. Se trató del abandono de su puesto como CEO por parte del fundador de Skype y el reconocimiento de que la compra de esta empresa por parte de eBay fue un muy mal negocio (de acuerdo con los cargos realizados). Cabe recordar que hace dos años, la industria tecnológica y el mundo de los negocios en general se vieron sorprendidos por la decisión de eBay de pagar US$ 2,6 mil millones por Skype, una empresa que apenas facturaba US$ 60 millones anuales. Las dudas generalizadas que la operación generó en aquel momento fueron confirmadas esta semana, cuando eBay anunció cargos por US$ 1,4 mil millones vinculados a esta adquisición, la mayoría de los cuales representan las pérdidas de esta evidente mala inversión. Algunas cifras son más que elocuentes de lo fallido de Skype como negocio: con 220 millones de usuarios registrados, sólo facturó US$ 90 millones en el último ejercicio. Algo así como unos US$ 0,41 (sí, centavos) por usuario por año.
Este hecho puede ser visto desde dos ángulos: el específico de la telefonía IP y el de las adquisiciones de empresas vinculadas a Internet.
En el primer caso, queda claro que será cada vez más difícil para una empresa subsistir con servicios de voz sobre IP únicamente. Si bien todavía falta, la voz tiende cada vez más a ser gratis. Localmente, esto se puede ver ya en las ofertas dobles que hacen las telefónicas de ADSL y voz, donde se llega al extremo de llamadas ilimitadas a nivel local. En el caso de ofertas de VoIP por parte de algunos operadores triple play en Europa, esta tarifa plana se extiende a varios países del aquel continente. Se trata de un servicio (la voz) que según todo parece indicar, será gratuito o formará parte de un paquete que ofrecerán los proveedores de infraestructura en los próximos años. Esto es así porque la voz no tiene grandes requerimientos de ancho de banda, y por eso muchos proveedores de estos accesos seguramente terminarán incluyendo algún servicio de VoIP en sus abonos. Por otra parte, hay otras opciones gratuitas de VoIP por Internet, tal como el MS Messenger que incorpora esa capacidad.
Viéndolo desde una perspectiva más amplia, vale recordar que la compra de Skype por eBay dio lugar a una nueva ola de adquisiciones de empresas de Internet que en alguna medida repiten el patrón de la primera generación: cifras astronómicas por empresas que generan muy pocos ingresos reales. Pasó con Skype. Siguió Google con el sitio de videos YouTube. Y ahora se está repitiendo con el sitio de redes sociales Facebook, por el cual Microsoft y Google se disputan por invertir sumas de dinero cuyo retorno aún no es evidente a los ojos. Los tres casos tienen puntos en común: un servicio novedoso, muy popular y que casi no genera ingresos. Habrá que esperar para ver si las coincidencias de Skype con los otros dos se mantienen en el futuro o si el del proveedor de telefonía por Internet fue un caso aparte.
Así estuvo la tecnología WiMax móvil la semana pasada, durante la realización del WiMax World en la ciudad de Chicago. La ocasión sirvió para que Motorola mostrara la versión móvil de WiMax en funcionamiento. La demo se realizó desde notebooks con capacidades WiMax instaladas en un barco que navegaba por el río Chicago. Esta configuración permitió demostrar las capacidades de hand off, esto es, cambiar de antenas sin perder la conectividad. Bajo estas condiciones, los equipos alcanzaron velocidades de 3 Mb de subida y 1,5 Mb de bajada.
Por supuesto que se trata de una demo y que las condiciones reales serán distintas, pero no obstante se trata de un indicio alentador de las posibilidades que esta tecnología viene prometiendo. El desarrollo de plataformas de telecomunicaciones que combinan ancho de banda y movilidad es interesante porque podría generar profundos cambios en el uso que se hace de la tecnología. Desde el momento en que se puede ver video de calidad sin mayores problemas a través de las redes fijas, surge la duda del real valor para el grueso de los clientes de los constantes aumentos en el ancho de banda a partir de determinadas velocidades. Es por esto que algunos empiezan a demostrar más interés por la movilidad que por la velocidad. Además, el modelo de negocio resulta para algunos más atractivo porque las redes inalámbricas son en teoría más baratas de poner en funcionamiento que las de fibra.
Teniendo en cuenta que en Argentina tanto Telmex como Nextel (con sus adquisiciones de Ertach y Velocom respectivamente) están apostando a esta tecnología, en un mediano plazo podrían ser una alternativa atractiva frente a la oferta actual de banda ancha, compitiendo no sólo con telefónicas y cableras en el ámbito de las comunicaciones fijas, sino también con los operadores celulares en el ámbito móvil. Un escenario más que interesante para los usuarios, que verán así multiplicarse las alternativas.
Mientras todavía se discute si las empresas telefónicas pueden o no dar servicios de TV, lo cierto es que la tecnología no duda y sigue avanzando, y con ella los productores de contenidos. Si bien es evidente que por el momento nadie tiene en claro cuál es "el" modelo de distribución de contenidos en video a través de redes digitales, resulta atractivo ver los distintos caminos que están siendo explorados. En este sentido, es interesante seguir lo que sucede en los EE.UU., donde las grandes cadenas están poniendo fichas en varios casilleros, de forma tal de no dejar caminos sin explorar.
Mientras que la cadena Fox hizo un acuerdo con iTunes para distribuir sus principales productos para este otoño boreal, NBC sacó sus shows de iTunes y comenzó a ofrecer descargas gratuitas de sus programas que, siguiendo el modelo tradicional de la TV abierta, incluyen publicidad. Otras cadenas, como ABC, combinan su propio sitio con iTunes y en breve, según lo anunciado, en AOL. Por su parte, CBS apunta a ampliar sus canales de distribución, haciendo acuerdos con muchos sitios en Internet. Simultáneamente, esta semana Joost salió de la etapa semi cerrada, dónde sólo podía accederse al servicio por invitación, abriéndose al público. Joost apunta a ser una especie de supermercado de contenidos, distribuyendo material de Viacom, MTV, Paramount, CNN, CBS, Cartoon Network, la liga de Baseball, etc. Al parecer la estrategia que comienza a dominar es la de la promiscuidad...
Sin embargo, a este ecosistema que se está formando entre proveedores de contenidos y redes de distribución le está faltando aún una pata fundamental: el dispositivo de reproducción. Los reproductores portátiles de video son un lindo chiche, pero claramente no son el lugar ideal para ver videos de larga duración. La PC mejora la experiencia, que es de primera mano, pero exige estar sentado en un escritorio, actitud poco relajada, o tirado en un sillón si se tiene una notebook, pero la pantalla es chica entonces.
Está claro que la TV sigue siendo el dispositivo por excelencia, situación que se ha fortalecido con la creciente popularidad de pantallas planas y de gran tamaño. Es hora de repensar los set top boxes no ya como una terminal de una red de TV sino como una terminal de Internet. Lo que hay actualmente son híbridos que apuntan más a ser plataformas de descarga, como los Apple TV o la Xbox 360, que un dispositivo de acceso a Internet desde la TV. La Nintendo Wii se acerca un poco, permitiendo navegar por Internet desde la TV, aunque sufre algunas limitaciones del navegador Opera. No obstante, es un buen indicio de cómo puede evolucionar este tema.
En síntesis, los contenidos ya están dispuestos a viajar por nuevas redes. Éstas están preparadas (o en vías de hacerlo) para soportar este tráfico. Donde todavía el modelo no cierra es en el punto más importante de este escenario: la tecnología en la casa del consumidor. Cuando este punto esté resuelto, la ridiculez sobre la discusión respecto de quién puede dar servicios de TV será patente.
Esa es la idea que queda luego de escuchar las diversas declaraciones de los involucrados con la industria de la TV por cable, situación en la que también pueden incluirse a ciertos funcionarios públicos. Todo dentro del marco de las Jornadas 2007 de ATVC que en líneas generales no aportaron nada nuevo dentro del ya reiterado reclamo en contra del ingreso de las empresas de telecomunicaciones al negocio de la TV.
Por el lado de los representantes empresarios, no hubo grandes novedades en sus declaraciones, encuadrándose éstas dentro de lo esperado por el marco y por el momento. Más interesante fue escuchar y analizar las palabras de los funcionarios involucrados en la temática ya que lo hicieron en un marco donde nadie iba a cuestionarlos en la medida en que dijeran lo que de ellos se esperaba.
Resultó paradójico que el diputado nacional presidente de la Comisión de Comunicaciones e Informática, mencionara entre las asignaturas pendientes a "la desagregación del bucle local, la portabilidad numérica". Se trata de elementos clave en una política de apertura a la competencia, y sin embargo, nada se hizo en sus cuatro años de mandato, ni siquiera un proyecto de declaración. Habrá que reelegirlo para darle tiempo. Cuatro años pasan volando.
Por otra parte, el Interventor del COMFER (de hecho, que todavía esté intervenido ya es toda una irregularidad) declaró que "la ley aclara que quienes dan servicios públicos no pueden dar televisión por cable, así se previó para impedir la concentración excesiva". No aclaró si por concentración excesiva considera también la ausencia de competencia en un área determinada generando condiciones monopólicas. En este aspecto, la situación de telefónicas y cableras se asemeja. Salvo en ambientes corporativos y en determinadas zonas de las principales áreas urbanas del país, no se puede elegir una empresa de telefonía distinta a la única disponible (sea Telefónica, Telecom o la cooperativa de la zona). Esta situación es similar en el caso de la TV por cable (sin importar el tamaño del operador). Se podrá argumentar que en ambos casos existe una alternativa inalámbrica (celulares para telefonía y DTH para el cable), pero si bien en ocasiones son sustitutos, se tratan de ofertas distintas, especialmente desde el punto de vista de los costos. Así, la mejor forma de evitar la concentración excesiva es permitiendo que las distintas redes que pasan por nuestros hogares (sean de TV, telefonía y, porqué no, de electricidad) puedan ofrecer cualquier servicio para las cuales estén técnicamente capacitadas. De esta forma el ciudadano/consumidor tendría más opciones y a menor precio. En el caso particular de las telefónicas herederas de ENTel, e independientemente de que se considere legal o no la participación de Telefónica en Telecom, lo que debe buscarse es la apertura de sus redes a los competidores, como sucede en Francia por ejemplo, donde existen diversos proveedores de servicios triple play sobre la red de Fance Télécom. No es limitando la competencia que se defienden los intereses del consumidor, como nos quieren hacer creer.
Para redondear un paquete de contrasentidos, durante las jornadas no faltaron los anuncios de los próximos servicios de telefonía a ser ofrecidos de los operadores de TV por cable (tal como lo hicieron Cablevisión y Telecentro). Así, es difícil sostener que los operadores de TV por cable están habilitados a dar servicios de telecomunicaciones, mientras que las empresas de telecomunicaciones (sean las herederas de ENTel como las que ingresaron en un marco de competencia) no pueden dar servicios de TV. ¿Será porque intuyen/saben que luego de las elecciones se avecinan cambios en la regulación y entonces es preferible endurecer lo más posible la posición actual para tener más margen de negociación? Falta cada vez menos para comprobar esta hipótesis.
Fue la que tuvo Microsoft, luego de que la Unión Europea decidiera multar con casi € 500 millones por abuso de posición dominante (léase prácticas monopólicas). La decisión se basó en el rechazo a proveer información a sus competidores para asegurar la interoperabilidad de sus productos así como por mantener la práctica de avanzar sobre nuevos mercados al agregar productos a su omnipresente sistema operativo Windows. Evidentemente se trata de una suma de dinero importante, si bien en el caso específico de Microsoft el impacto es más en su imagen y en su orgullo que en su billetera.
Analizando las posibles consecuencias de esta medida, la realidad indica que difícilmente una decisión judicial pueda desmantelar el imperio que Microsoft construyó alrededor de Windows y apuntaló con su paquete Office. Y quizás la única forma en que esta situación cambie efectivamente esté más vinculada a un cambio de paradigma tecnológico, como el que podría marcar el avance de las aplicaciones online (caso Google Apps) que reducirían notablemente la importancia del sistema operativo.
En este sentido, habrá que prestar atención al anuncio realizado también esta semana por IBM. La empresa lanzará su paquete de oficina Lotus Symphony, el cual podrá ser descargado gratuitamente desde su sitio web y que es una versión del software de fuente abierta desarrollado por OpenOffice.org. Así, IBM, con la fe del converso, reafirma su apego a los estándares abiertos y el open source. Un dato adicional interesante es que IBM también está uniendo fuerzas con Google, ya que sus aplicaciones online de procesador de texto y planilla de cálculo utilizan documentos con el mismo formato OpenDocument, que también es abierto. Cabe señalar que este formato fue aprobado por la Organización Internacional para la Estandarización (ISO), cosa que no pudo lograr aún Microsoft con su formato Office Open XML.
Como con su apoyo a Linux, el ingreso de IBM a este territorio puede generar que el ambiente corporativo le preste más atención a las aplicaciones de oficina de fuente abierta, afectando entonces las ventas del hiperpopular Office de Microsoft. Pero igualmente habrá que tener presente que, aún en el caso de darse, este proceso llevará varios años. Tiempo suficiente como para que Microsoft se adapte al nuevo entorno. Cosa que, aunque con dificultades, ya está haciendo.
Ya nadie duda de que a pesar del crecimiento registrado en los últimos tiempos en los mercados emergentes (con China e India a la cabeza), el negocio de las PC nunca llegará a los niveles de masividad de los dispositivos móviles (típicamente el celular). Por este motivo, desde hace ya varios años que Intel viene apuntando al rubro de los equipos de mano, hasta ahora sin mucho éxito. Primero fue con procesadores (los Xscale, negocio que terminó vendiendo a Marvell). Luego con el lanzamiento de la UMPC, un concepto que no terminó de despegar por tener el precio de una notebook sin conectividad WAN.
Pero como saben que el futuro pasa por dispositivos comunicados, en Intel siguieron insistiendo, y esta semana presentaron, entre tantas otras cosas, una nueva plataforma de chips que permitirá a los futuros dispositivos integrar en un único equipo WiMax y WiFi, al tiempo que aceptará tarjetas 3G. Todo con el agregado de un muy bajo consumo energético y un tamaño diminuto.
No se trata de un dispositivo específico sino de una serie de chips que permitirá a los fabricantes de equipos construir los suyos, generando una nueva categoría denominada MID (Mobile Internet Device o dispositivo móvil de Internet). Esta plataforma estará disponible a principios del año próximo, con lo que se esperan los primeros equipos para mitad de 2008, los cuales, en principio, vendrían de la mano de marcas tradicionalmente proveedoras de computadoras, no de teléfonos celulares.
Estas capacidades hacen pensar en un concepto similar al iPod Touch (que es como un iPhone pero sin teléfono), aunque con opciones de conectividad más modernas. Así se verá un enfrentamiento entre dos conceptos que apuntan a lo mismo: smartphones vs. MID. O para verlo de otra forma, dispositivos cuya función primaria es la de un teléfono (ej: Blackberry) o equipos que permiten acceso a Internet, mensajería y datos (iPod Touch y sus sucesores). Habrá que ver si estas diferencias serán percibidas por los usuarios o, si como todo hace pensar, no se trata de otra cosa que de las dos caras de una misma moneda.
Claramente, el segmento PyME se encuentra aún en un período de crecimiento que se traduce en mayores demandas en cuanto al consumo de TIC, tanto desde el punto de vista de los servicios como del equipamiento. Para el desarrollo de nuevos servicios, la difusión de la banda ancha, con una penetración de casi el 98% de las empresas PyME, se convierte en la plataforma ideal. Ya lo está capitalizando la telefonía IP que muestra evidentes signos de popularización [ver "Avance IP"], y también puede ser la base para el desarrollo de servicios remotos, como ASP, centrales IP virtuales, etc.
Una de las características de las PyMEs es que en muchas ocasiones no hay un responsable de tecnología que tenga un perfil técnico. Únicamente en una de cada tres empresas relevadas el sector contratante de los servicios de telecomunicaciones es el área de sistemas/tecnología. El resto es mayormente de las áreas de administración y de dirección. Esto surge del informe "Telecomunicaciones fijas en PyMEs: local, larga distancia, datos e Internet" realizado por Carrier y Asociados. Solamente en las empresas más grandes la responsabilidad de la contratación recae en una persona de sistemas/tecnología.
Por este motivo, para el crecimiento de toda esta nueva gama de servicios, será fundamental dirigirse a este segmento con un mensaje orientado al negocio y a los beneficios concretos de la aplicación de la tecnología. El objetivo debe ser que el mismo pueda ser entendido fácilmente por decisores que no vienen del mundo de la tecnología y a los que habrá que ayudar a conceptualizar sus beneficios. Por el contrario, el discurso tecnológico tiene muchas chances de no surtir efecto. La oportunidad está, aunque el desafío es importante.
Algunas noticias que se dieron en el último mes ponen un gran signo de pregunta alrededor de la movida de las "ciudades WiFi" o Muni WiFi.
El caso más emblemático quizás sea el de Chicago, que se convirtió en la primera gran ciudad en abandonar sus planes de crear una red que cubriera una metrópolis. La decisión se basó en que el proyecto es muy costoso y que pocos residentes terminarían usándolo. Otro que clavó los frenos fue Earthlink, compañía que no sólo estaba trabajando en Chicago sino también en Philadelphia y Nueva Orleáns. La empresa declaró que "el negocio tal como está planteado no proporciona retornos aceptables". La consecuencia inmediata: despido de 900 de sus 2.000 empleados, incluyendo al responsable máximo de la división WiFi Municipal.
La base del problema pasa por la elección tecnológica. Como ya lo publicáramos un año atrás [ver Comentarios n° 191 - "BA Wireless"], la tecnología WiFi es apropiada para redes locales (LAN) y no para redes de mayor alcance. Así, la red metropolitana no se puede basar en transmisores de radio ubicados en el exterior ya que la tecnología WiFi fue concebida para un uso local y no tiene las características necesarias para atravesar paredes y proveer buena cobertura al interior de los edificios viniendo desde afuera. Esta situación se ve agravada por la interferencia de las redes WiFi en hogares y empresas, cuya adopción sólo seguirá creciendo, con lo que el problema es cada vez mayor.
En otras palabras, proyectos de este estilo deberían basarse en tecnologías pensadas para ofrecer la cobertura adecuada (cosa que no siempre logran, seamos sinceros), como podrían ser WiMax o algún sabor de 3G o 4G de las redes celulares. Así, la tecnología WiFi volverá al lugar donde mejor funciona, la conectividad inalámbrica local.
En cuanto al argumento de que estas redes WiFi servirían para el uso interno de las municipalidades, el problema parece ser que se puso el carro antes que los caballos. Es decir, la mayoría de los municipios embarcados en estos proyectos no tienen mucho que hacer con estas redes (como conectar parquímetros o PDA de inspectores) ya que carecen del back office necesario. O sea, primero dispararon y después apuntaron... Se ve que no es sólo un vicio nacional.
Que los funcionarios y políticos no sepan de estas cosas, es natural, porque no es su ámbito. Pero que no lo supieran las empresas proveedoras de tecnología que estuvieron fogoneando estos proyectos... No se sabe que es más grave: que no lo supieran o que sabiéndolo avanzaran igual.
El segmento PyME da signos evidentes de su expansión en el consumo de servicios de telecomunicaciones móviles. Avances en la penetración, una mayor cantidad promedio de líneas y la mayor adopción de servicios de datos son la prueba de que aquí también el uso de redes móviles está en un proceso de crecimiento que da lugar a nuevas oportunidades. Esto surge del informe "Telecomunicaciones móviles en PyMEs: voz y datos - 2007", recientemente publicado por Carrier y Asociados.
Para cualquier servicio con niveles de penetración superiores al 80%, mantener el crecimiento es sin dudas difícil. Sin embargo, el servicio de telefonía móvil está presente en el 87% de las PyMEs, 3 puntos más que lo registrado en el 2006. Más significativo fue el aumento en la cantidad promedio de líneas, el cual creció un 30% en un año, aunque con diferencias según las zonas. La tendencia al aumento en la cantidad de líneas se mantendrá, de acuerdo con las previsiones de nuevas altas en los próximos 12 meses, ya que una de cada cuatro empresas relevadas planea aumentar la cantidad de líneas. Esto se dará especialmente entre las empresas más grandes y las del Interior.
Si bien el gasto promedio por línea se mantiene "clavado", con tantas nuevas líneas sumándose, el aumento del gasto total promedio por empresa creció un 30%. No obstante, el mismo no es uniforme para todos los operadores, evidenciando diferencias en los servicios consumidos así como en el tipo de clientes que tiene cada uno. Por otra parte, comparando el gasto en telefonía móvil entre empresas que utilizan servicios de datos móviles y quienes no, las primeras gastan mensualmente un 27% más. Así se entiende el interés de los operadores en desarrollar el uso de los servicios móviles de datos.
Siguiendo con la tendencia a las comunicaciones y la movilidad, esta semana Motorola anunció la realización de pruebas con su tecnología WiMax móvil (técnicamente 802.16e) en conjunto con Telmex en Argentina. Cabe recordar que esta última se encuentra en proceso de adquisición de Ertach, pionera en la utilización de WiMax en Latinoamérica, por lo que la empresa cuenta no sólo con una interesante base de clientes sino también con la frecuencia necesaria así como con un importante caudal de know how en esta tecnología.
Lo interesante de la versión móvil de WiMax es que no sólo es un sustituto/complemento de las opciones fijas de banda ancha, sino que al ser móvil aporta beneficios que van más allá de los usos tradicionales de datos móviles, como es el caso de las tecnologías 3G de los operadores celulares. La idea de quienes están detrás del WiMax móvil es crear un tejido inalámbrico que ofrezca conectividad no sólo a computadoras, teléfonos y otros dispositivos personales, sino que sirva también de infraestructura de comunicaciones para cámaras fotográficas, heladeras, acondicionadores y todo tipo de equipamiento que pudiera beneficiarse con el agregado de capacidades de comunicación.
Este último punto es realmente interesante, ya que obligaría a replantear la relación comercial entre operadores y clientes. Hasta ahora, generalmente lo que un operador vende es un punto de conexión con un determinado ancho de banda. Y lo que pasa puertas adentro de la casa del cliente es responsabilidad de éste. Para el escenario que imaginan los impulsores de WiMax móvil, este modelo no parece el indicado ya que no se trata de un punto de acceso sino de diversos dispositivos conectados directamente a la red, con distintas necesidades de ancho de banda. Esto podría indicar la llegada definitiva del modelo de pago por uso, tal como sucede hoy con la energía eléctrica que alimenta a varios dispositivos, muchos de los cuales son los mismos que mañana estarán conectados a la red de datos.
Otro punto es que se acentuará la tendencia hacia los dispositivos multinorma. Así como hoy tenemos celulares con GSM, bluetooth y, a veces, WiFi, en el futuro no sería raro que a éstas tecnologías se les sume WiMax, permitiendo entonces el uso de la red más indicada para cada situación. No habrá problemas en la medida en que esto sea transparente para el usuario, a quien todas estas combinaciones técnicas no le interesan en absoluto.
Esta semana dos anuncios realizados por Apple ponen en evidencia que el ingreso de la empresa de la manzanita al mundo de las telecomunicaciones no es tan fácil como creían, y que si pensaban comerse a los chicos crudos, será mejor que pongan a hervir el agua, porque la carne está muy dura para dientes tan tiernos.
Causó bastante revuelo el anuncio de la rebaja de US$ 200 sobre el precio del recientemente lanzado iPhone, equivalente a 1/3 del monto original al momento de su lanzamiento, apenas dos meses atrás. No es fácil recordar un producto que haya bajado tan drásticamente de precio tan poco tiempo después de haber visto la luz en el mercado. Por lo menos no en el caso de un producto exitoso. Si algo se vende tan bien, ¿porqué resignar ingresos si hay demanda? Algo huele mal en Dinamarca...
La medida es una evidencia de que el negocio de las telecomunicaciones no es igual al de las computadoras o de los reproductores personales, donde Apple sí pudo mantener su burbuja de precio. Esto confirmaría lo mencionado tiempo atrás [ver comentario "Que no se pudra la manzana", publicado en abril último], que la apuesta de Apple era riesgosa porque, a diferencia de sus éxitos anteriores, con el iPhone no estaba ingresando en un mercado en etapa embrionaria sino en uno bien maduro y con competidores de peso.
Quizás por preferir apostar a algo más seguro, esta semana anunció el iPod Touch, que en realidad no es otra cosa que un iPhone sin teléfono. Este lanzamiento es un reconocimiento de que el concepto del iPhone es más que interesante, pero que su fuerte está en su capacidad de reproductor multimedia y dispositivo de acceso móvil a Internet y no en sus condiciones de celular. Y que su mercado más relevante es el público joven, para quien la diferencia entre US$ 299 (precio del iPod Touch) y US$ 599 (precio del iPhone al que hay que sumarle el servicio de AT&T) es la diferencia entre vender y no vender. Adicionalmente, el iPod Touch deja la relación con sus clientes enteramente en las manos de Apple y no de un operador de telecomunicaciones, lo que le ha costado no pocos dolores de cabeza (y muchos intentos de desbloqueo del iPhone para dar libertad de elección). O dicho de otra forma, zapatero a tus zapatos. O, como le gusta decir a los estadounidenses (americanos somos todos), back to basics.
Otro que está revisando los pasos dados es Palm, quien esta semana anunció la cancelación del desarrollo de su producto Foleo, un equipo similar a una notebook pero que en realidad es una extensión de una Treo para hacerla más ergonómica para determinadas tareas. O sea, necesita de una Treo para ser funcional.
Aparentemente, la gente de Palm escuchó todas las críticas que llovieron hacia el concepto de Foleo así como la oportunidad de su desarrollo. Este punto fue particularmente relevante, ya que Palm viene perdiendo posiciones de la mano de una plataforma de smartphones que está envejeciendo aceleradamente y que necesita con urgencia más que un lifting para hacer frente a los RIM, Nokia, Motorola, HP y otros. Por otra parte, si la Foleo necesita una Treo para andar, sólo podría ser vendida a una fracción de la base instalada y no a nuevos clientes.
La decisión no debe haber sido sencilla ya que Palm se aprestaba a lanzar Foleo al mercado. Desde la empresa dijeron que necesitan enfocarse a la nueva generación de su plataforma de software, con lo que seguir adelante con Foleo hubiera sido una distracción innecesaria. En síntesis, a pesar de que la marcha atrás le costará a la empresa unos US$ 10 millones, es menos de lo que perdería por seguir por un camino equivocado. Más vale así. Aunque además de renovar su plataforma de software, deberán hacer lo propio con la de hardware. Suponemos que así será.
Resultó muy interesante observar lo sucedido la última semana en la relación de la tienda online de contenidos iTunes con la cadena televisiva NBC. Es que luego de no poder arribar a un acuerdo en el tema precios, NBC Universal decidió dejar de vender sus shows televisivos en iTunes. El dato no es menor, ya que se trata del proveedor n°1 de videos para descargar de la tienda digital de Apple, representando el 40% de este tipo ventas.
La decisión de NBC es parte de una escalada entre Apple y las empresas de medios, quienes no están del todo satisfechas por no poder controlar el precio y las ofertas de los temas musicales y los videos vendidos por iTunes. Ya en julio pasado, Universal anunció que no renovaría su contrato con iTunes. Ambas decisiones no toman a nadie por sorpresa puesto que hace un tiempo que las empresas de medios viene quejándose de que el nivel de precios establecido por iTunes es una forma de incentivar la venta de los productos estrella de Apple: las distintas versiones de los reproductores iPod.
La visión de los proveedores de contenidos de iTunes no es tan errada. De acuerdo con las cifras de ventas acumuladas de iPods y de temas musicales vía iTunes, se obtiene un promedio de apenas 20 temas vendidos por cada reproductor. O sea que proporcionalmente se venden más reproductores que contenidos. Por lo tanto, entienden que, al menos por el momento, Apple necesita más del contenido que éstos necesitan de Apple. Además, existen muchas otras empresas (como Amazon, Wall-Mart y otras) que estarían dispuestas a negociar en otros términos con los proveedores de contenidos con tal de debilitar la posición de iTunes.
Pero más allá del caso puntual de Apple, iTunes y sus socios, que a fin de cuentas es anecdótico, lo que esto está marcando es que la venta de contenidos sigue siendo un tema que aún dista de estar resuelto. Se trata de la inversa del modelo de la impresora y el cartucho de tinta (para actualizar un poco el antiguo caso de la maquinita de afeitar y la hoja). Mientras que empresas como HP, Epson y otras obtienen su ganancia no vendiendo el equipo pero sí los insumos, en el caso de Apple es al revés, ya que obtiene su mayor margen vendiendo el equipo y no el contenido. La diferencia es que mientras HP y otros fabrican tanto la impresora como el cartucho, Apple no produce el contenido que vende, con lo que es un tercero el que está resignando ingresos. Así, evidentemente, el modelo no puede sostenerse indefinidamente. Habrá que buscar otros caminos.
Con un crecimiento en penetración del 23% en el último año en el segmento PyME, el uso de servicios de datos móviles está experimentando un interesante impulso de la mano de la mayor disponibilidad de smartphones. Esto surge del informe "Telecomunicaciones móviles en PyMEs: voz y datos - 2007", recientemente publicado por Carrier y Asociados. El uso de servicios de datos móviles es creciente en la medida en que más líneas contrata la empresa. Así, si bien el 16% de las PyME utilizan datos en forma móvil, este valor llega al 22% en los clientes más grandes, segmento donde la penetración aumentó en un 40% en el último año.
Dentro de las aplicaciones utilizadas, la amplia popularidad del correo electrónico está impulsando una creciente adopción de smartphones. Éstos pasaron de ser utilizados por el 4% de las empresas que usaban datos móviles en el 2005, a un 12% en el 2006 para trepar a un 44% en el 2007. Claramente, la conveniencia de tener el mail en un dispositivo ultraportátil está desplazando al modelo de notebook conectada a un celular (combinación que registra una caída del 73% al 47% en un año).
De cara a lo que vendrá, el interés por los nuevos servicios de datos móviles no decae, ya que un 48% de las empresas que aún no los usan manifiestan su interés por hacerlo, especialmente en las empresas de mayor tamaño. El correo sigue siendo la killer application, lo que permite vislumbrar que la popularidad de los smartphones seguirá en aumento.
Hay 123 items con el tag Tecnologia. Ud. puede ver todos nuestros tag en el Tag Cloud