La revista América Economía cita mi opinión en su último número respecto al futuro a corto plazo del servicio DineroMail.com .
El sitio requiere registrarse (gratuitamente) para acceder al artículo.
Nuevas tecnologías: Negocios y Sociedad.
La revista América Economía cita mi opinión en su último número respecto al futuro a corto plazo del servicio DineroMail.com .
El sitio requiere registrarse (gratuitamente) para acceder al artículo.
Nunca será motivo de gusto que una empresa se declare en bancarrota.
Lo anterior, sin embargo, no me impide tomar el caso del operador Amp’d como la más reciente y clara evidencia de que ofrecer contenido atractivo como principal diferenciador no es una estrategia viable en el largo plazo.
La oferta de contenido de Amp’d no podía ser más enfocada y atractiva: un servicio dirigido al mercado joven con contenido de la disquera más grande del mundo (Universal Music Group) y la mismísima MTV.
Ayer Amp’d se declaró en bancarrota, debido a que si bien la empresa fue exitosísima adquiriendo suscriptores, casi la mitad de ellos presentaba algún problema de cobranza.
El segmento de mercado que representan los jóvenes es probablemente el más activo consumidor de contenidos, principalmente los digitales. Si una estrategia de ofrecer el mejor contenido posible a este segmento resulta no ser rentable, realmente ya es momento de que quienes aún plantean que los contenidos deben estar en el centro de la estrategia de los operadores revisen con más calma sus supuestos.
Las ofertas de contenidos móviles representan importantes ingresos a los operadores, además de que generan incentivos para la inovación en nuevos y mejores dispositivos, que los operadores pueden ofrecer accesiblemente a sus usuarios vía subsidios equvalentes a una parte o la totalidad del costo del teléfono. El usuario es el más beneficiado de ello.
Sin embargo, el caso de Amp’d ejemplifica claramente que ofrecer el mejor contenido es una buena estrategia complementaria y no la principal que puede considerar un operador.
Ya lo dijo Andrew Odlyzko: Content is not king.
” … el país se rezagó no sólo ante las naciones más desarrolladas sino ante naciones como Chile. Es absurdo que Telmex pueda dar servicio de wi-max (sic) en aquel país sudamericano y en México no estén listas las condiciones regulatorias.”
¿Alguien le puede explicar a David Páramo que Telmex YA cuenta con espectro que hoy le permitiría ofrecer Wi-Max si así lo decidiera? (de hecho desde hace más de 8 años, mucho antes incluso de que la tecnología existiera).
Welcome to WordPress. This is your first post. Edit or delete it, then start blogging!
Esta es la liga a un post que hice a la lista LACNIC/NAPla sobre experiencias internacionales en el tema de regulación de la interconexión enter backbones de Internet.
El IPv6 Task Force México tiene en su página principal una liga al artículo (archivo PDF) que sobre la migración a IPv6 escribí en Mayo de 2006 tal como fue publicado por la Revista Red.
La revista The Economist en su portada del 17 de septiembre de 2005 proclamó la muerte del negocio telefónico en manos de Internet. Al contemplar la desaparición del negocio de larga distancia y los operadores dedicados a él, es poco lo que se puede argumentar en contra al artículo, sin embargo, The Economist se equivoca al creer que los operadores móviles la pasarán peor que sus contrapartes fijos en los años que vienen. Es la intención de este artículo demostrar por qué.
Primero el hecho. The Economist parte de la opinión de una firma de capital de acuerdo a la cual los ingresos de los operadores celulares dependen de al menos un 80% de los servicios de voz, lo que los hace particularmente vulnerables en un mundo donde la voz será una aplicación casi gratuita transportada sobre redes de datos como Internet. Sí, la proporción citada es correcta, pero la conclusión es errónea, la industria de la telefonía móvil ha sido y será más o menos inmune al proceso de “comoditización” que han sufrido los servicios fijos por las siguientes razones:
CONCLUSIÓN: El acceso será predominantemente móvil. De acuerdo a The Economist (y éste es el grave error de juicio del artículo) en un mundo IP, sólo los operadores fijos que cuentan con líneas DSL estarán en condiciones de sobrevivir. Sí, la tendencia hacia la adopción de las redes IP puede relegar a los operadores móviles a simples proveedores de acceso. Pero qué fácil olvida The Economist que hoy los usuarios están reemplazando sus líneas fijas de telefonía por líneas móviles, si el mundo de la telefonía tradicional es predominantemente móvil, ¿por qué pensar que en el mundo de las telecomunicaciones IP será dominado por líneas DSL?, o peor aún, declarar la muerte del operador móvil. En su ejercicio de análisis, The Economist parece no haberse planteado esas preguntas.
Liga a foto tomada durante mi intervención en el III Foro Iberoamericano AHCIET Móvil.
Origen y encumbramiento
El Principio de conectividad “punta a punta” (end-to-end principle) fue propuesto por investigadores del MIT en 1981. La propuesta de sus autores era la de un enfoque sencillo y por lo mismo elegante para implantar las funciones que hacen confiable a una red de comunicaciones (retransmisiones para recuperación de errores, por mostrar un caso). El planteamiento demostraba la aplicación general de ideas que ya habían sido consideradas, entre otros, por Cerf y Kahn como metas de diseño de la primera versión del Protocolo de Internet, publicada ocho años antes.
Más allá de sus pragmáticos y puramente ingenieriles fines originales, el Principio “end-to-end” ha sido elevado en la actualidad a la estatura de dogma, ocupando un lugar de principio incuestionable y fundamental de aplicación general a la arquitectura de Internet en su conjunto (red y aplicaciones). Al Principio, se le considera sinónimo de todo lo que es bueno en la Red y es usado frecuentemente como argumento para activistas que basados en él defienden una variedad de causas.
Son muchas responsabilidades para un modesto principio de diseño que simplemente establecía que “es deseable que la operación de los protocolos de comunicación opere en las puntas terminales de la red” y “ésta – como componente intermedio – no debe tratar de ofrecer ayuda a la aplicación, pues al hacerlo sólo generaría redundancias”. La concepción generalmente aceptada del Principio en la actualidad va más allá y propone que la red no debe hacer nada para limitar la capacidad del usuario de explotar la red como le plazca.
La realidad de la Internet de hoy está lejos de ser el paraíso de apertura que la concepción dogmática del Principio propone. Más aún, conforme las sociedades se vuelven más dependientes de la Internet, las presiones que ejercerán fuerza en sentido contrario al Principio serán cada vez más y más intensas.
¿Una propuesta obsoleta?
No se debe perder jamás de vista que la aplicación del Principio end-to-end como está actualmente entendido ha sido el principal promotor de la innovación en Internet al otorgar más poder al usuario. Si la red se intrometiera controlando las aplicaciones que el usuario pueda usar o generar, una aplicación como Napster no hubiera sido posible con todo y sus consecuencias negativas: violar derechos de autor, así como las positivas: el nacimiento nuevas industria como las de dispositivos de entretenimiento (tipo iPOD, TiVO, celulares MP3 y otras), la de distribución de contenidos digitales y, muy importante, la forzada entrada de las empresas de medios al ámbito digital.
Por otro lado y sin demérito de lo anterior, debe reconocerse con toda claridad que hoy la Internet se mantiene también a fuerza de permitir infinidad de violaciones “flagrantes a su gran Principio fundacional. La aparente contradicción de una Internet exitosa por no ejercer controles, contrasta con los múltiples esfuerzos que día a día se ejercen para tener más orden en la Red, algunos ejemplos:
NAT: Mencionar el acrónimo es la mejor forma de irritar a un defensor ortodoxo del Principio.
Cuando el crecimiento explosivo de Internet amenazaba con agotar el espacio de direcciones IP, los grandes usuarios recurrieron al protocolo NAT para que múltiples equipos compartieran una sola dirección. Hoy las direcciones IP parecen tener espacio para varios años, pero el uso de NAT permanece como un imperativo para garantizar la seguridad de las redes, pues la naturaleza del protocolo hace que los equipos de las redes empresariales sean “invisibles” para el resto de la Internet aumentando la protección contra intrusos. La consecuencia no prevista de hacer más difícil (más no imposible) el despliegue de servicios VoIP o de videoconferencia sobre IP va claramente contra el Principio, si bien es un precio que cualquier administrador de redes está dispuesto a pagar por contar con una red mejor protegida.MPLS: La tecnología fundamental para los servicios de Redes Privadas Virtuales sobre IP que implica dos elementos claves: 1) La red crea verdaderas particiones virtuales que no se comunican entre sí. 2) Los equipos del usuario no implantan la tecnología, el control de la funcionalidad queda enteramente confinada al núcleo de la red, no en las puntas. ¿Por qué desear una tecnología que está fundamentalmente opuesta al Principio? las motivaciones son, respectivamente: 1a) ofrecer redes seguras sobre una infraestructura compartida, 2b) migrar redes existentes a servicios más modernos sin tener que reemplazar equipos. De nuevo, una violación del Principio, juega a favor del usuario.
Protecciones contra ataques de Negación de Servicio: La protección de la infraestructura de Internet contra ataques de hackers lleva implícita el bloqueo de tipos particulares de tráfico. Los ruteadores de acceso en la red de los proveedores de servicio se han vuelto cada vez más sofisticados, primordialmente por la necesidad de imponer un mayor número de controles (por ejemplo, listas de acceso) que se inmiscuyen cada vez más en el análisis del contenido del tráfico transportado para selectivamente bloquearlo. De esta forma se busca proteger a la red en su conjunto al bloquear ataques como la inundación de la red con paquetes con direcciones destino falsas, el envío de paquetes formateados incorrectamente de forma intencional y otros tipos de tráfico basura.
SPAM: Prácticamente todas las técnicas que se usan para combatir el SPAM son en sí mismas una violación al Principio. Es el caso de las listas negras de remitentes y el filtrado de mensajes en servidores intermedios. Otras soluciones sugeridas van más allá, dando a la red la facultad de limitar el tráfico de correo total emitido por un usuario (la sugerencia de Bill Gates en 2004) o ejerciendo un control centralizado mediante la verificación de la entidad del remitente (el inicio de un Big Brother del correo electrónico de acuerdo a algunos ortodoxos del principio).
Protecciones contra virus: donde con más frecuencia los operadores de servicio implantan controles similares a los de los dos puntos anteriores para evitar la diseminación de cualquier tipo de código malicioso.
¿Son éstas prácticas evidencia del agotamiento del Principio?, ¿son un mal necesario ante el inevitable proceso de maduración de la Red?
El poder al usuario
Originalmente, la adopción del Principio fue el habilitador clave para hacer posible tal poder, hoy el Principio en solitario es un recurso limitado.
El énfasis al futuro no puede centrarse en la concepción pura y tradicional del Principio, como en su consecuencia principal: el nuevo poder concedido al usuario en las redes basadas en el Protocolo de Internet, el cual es tal que el usuario puede, a su entera discreción, limitar su uso de la red si así le conviene.
En este sentido, un usuario empresarial instalando NAT para ajustar el uso de la red a su necesidad está aprovechando legítimamente su derecho como usuario. Un servicio de filtrado de mensajes contratado voluntariamente por el usuario y dónde éste tiene el control para consultar qué correos son filtrados y con qué criterio, en ninguna forma puede considerarse un atentado a la naturaleza de Internet. En el otro lado del espectro las acciones de ISP’s bloqueando servicios de Voz sobre Internet, o filtrando correos sin permitir al usuario verificar los mensajes filtrados o los criterios aplicados, pueden calificarse simplemente como controles aberrantes.
A futuro, cada nueva política propuesta para la mejor operación de Internet debe verse a la luz de cómo incrementan o limitan la capacidad del usuario para explotar la Red. Tragedias personales como el SPAM o los virus e incluso los efectos temporales de un posible “ciberataque” deben considerarse como anécdotas irrelevantes y hasta males necesarios mientras las regulaciones y políticas que intenten combatirlas lleven implícitas restricciones al derecho de los usuarios para usar la Red como un vehículo para la innovación. Hacia delante, la protección de tal derecho va más allá de cualquier criterio técnico de diseño, incluso sin importar cuán necesario haya sido tal criterio durante los inicios de la Red.
Presentación que di durante el Business Innovation Forum 2004 respecto al estado de la regulación de VoIP en México.