Réquiem por la convergencia fijo-móvil

“¿La Internet crece primordialmente porque es una red ‘tonta’?. Probablemente no, … un análisis más detallado sugiere que la Internet es exitosa por las mismas razones por las que las PCs dominaron sobre las mainframes y que son responsables del éxito de Microsoft

Smart and stupid networks:
Why the Internet is like Microsoft

Andrew Odlyzko

En un influyente documento, el investigador Andrew Odlyzko dice que la Internet es como Microsoft, ¿qué quiere decir con ello?, la idea es que la PCs ha sido exitosa como una plataforma abierta que facilita, fomenta y sustenta un mercado de aplicaciones desarrolladas por terceros. Pero esa misma apertura tiene un costo: las grandes inconveniencias que padecemos todos los usuarios de las PCs, que quedamos sujetos a otro tipo de “desarrolladores”: los creadores de viruses, troyanos y otros códigos maliciosos. De la misma manera, la gran disponibilidad de aplicaciones y servicios de Internet, más que compensan y “ocultan” la complejidad que padece el usuario para configurar servicios de correo, mensajería instantánea y lidiar con problemas como el SPAM, el phishing y otros. Literalmente Odlyzko dice: la PC y la Internet ofrecen una gran oferta a un grupo de interés (los desarrolladores), mientras ocultan los costos que imponen a los usuarios.

Hace una semana varios encabezados de diversos medios y blogs especializados anunciaban lo que muchos sospechábamos desde hacer rato: que la industria está abandonando el desarrollo de productos de convergencia de redes fijas y móviles (FMC – Fixed Mobile Convergence) para enfocarse en iniciativas de “Comunicaciones Unificadas” (lo que sea que ésta idea signifique) o Femtoceldas (tecnología que más allá de todos los beneficios adicionales que sus fabricantes propongan, fundamentalmente es una forma creativa de mejorar la cobertura en interiores).

Pareciera que el caso que el de la Convergencia Fijo-Móvil es el de una iniciativa que atrajo fuertemente el interés de un grupo de interés (los operadores) que veían en ella múltiples beneficios:

1. Mejorar la cobertura de interiores sin requerir de más espectros o costos infraestructura de micro o pico-celdas.
2. Lidiar con el crecimiento del tráfico de la red móvil (con altos costos variables) migrando tráfico a una red fija (con bajos costos variables y costos fijos que más bien correrían por cuenta del usuario)
3. Maximizar los beneficios anteriores enfocando la oferta en aquellos lugares donde se genera la mayor cantidad de tráfico del usuario promedio : su oficina, su casa y algunos sitios públicos como restaurantes, cafeterías, aeropuertos y otros con cobertura WiFi.

El gran problema de la CFM es que todos estos beneficios para el operador, imponen costos en el usuario que no han sido fácilmente ocultados o compensados por algún claro beneficio. La promesa de precios relativamente más bajos en las llamadas cursadas aprovechando la red fija, no ha sido un incentivo que sea mayor que inconvenientes como:

1. Lidiar con la operación de “clientes” (software en la terminal) que en muchos casos obligaba al usuario a manualmente seleccionar la red a la que quisiera/debiera conectarse.
2. Configurar parámetros de acceso para cada una de las redes WiFi que se quisieran usar en sitios público
3. Y, me parece más crítico, depender de una limitadísima gama de teléfonos (iniciativas como el Bluephone de BT limitaban al usuario a un modelo único de teléfono) que tuvieran el hardware para las dos modalidades de conexión (celular y WiFi) así como la inteligencia para mantener la continuidad de la llamada al haber movimiento de un área de cobertura a otra.

Lo anterior sin contar con la competencia que algunos planes tarifarios ofrecen a la idea de tener llamadas más baratas desde casa como:

1. Los ampliamente populares planes de “Noches y Fines de Semana”, que ofrecen llamadas gratuitas en los días y horarios en que comúnmente un consumidor está en casa.
2. Los planes “home-zone” que ofrecen llamadas más económicas hechas desde el área de cobertura de la radiobase del domicilio del cliente
3. Los planes de comunicación grupal ilimitada estilo “Friends and Family” y sus equivalentes para usuarios de negocios que permiten comunicación total mediante una renta fija a los teléfonos que el usuario requiere llamar con más frecuencia.

Es probable que iniciativas como las Femtoceldas tengan más éxito, pues permiten mejorar la cobertura en interiores instalando un sencillo y barato dispositivo que no obliga al usuario a cambiar teléfonos o a operar su teléfono de forma distinta. El concepto de Comunicación Unificada es tan difuso, por otro lado, que es muy fácil agregar algunas funcionalidades a líneas de producto existentes de conmutadores, servidores de correo y teléfono inteligentes para luego declararlos productos de “CU” y declarar el éxito de ésta iniciativa.

Pero por lo que respecta a la CFM, al menos para su encarnación reciente, ya podemos con certeza poder declarar formalmente su muerte.

Regulación Mexicana para servicios VoIP

Existe una gran desinformación en nuestro país respecto a la legalidad o ilegalidad de servicios de VoIP y frecuentemente se escuchan frases como “es un servicio que no está regulado en México”, o “sólo es una aplicación más que no debe ser regulada”.

La realidad es que mientras un servicio utilice numeración telefónica de acuerdo al Plan Técnico Fundamental de Numeración queda claro que el servicio está sujeto a cierta regulación. Por sus características, sin embargo, estos servicios no necesariamente estarían sometidos a las mismas cargas regulatorias que un operador tradicional.

La Ley Federal de Telecomunicaciones de 1995 ya considera la figura de “Comercializadora” de Servicios de Telecomuniaciones para aquellas empresas que ofrecen los servicios sin haber construido o ser dueños de una red pública de telecomunicaciones. A pesar de ello, fue hasta hace apenas algunos años que COFETEL decidió reglamentar la figura y otorgar los primeros servicios de comercialización.

El día de hoy Reforma me cita, respecto a la figura legal con la que podrían operar empresas como Vonage o eBAY y su servicio Skype:

“Estas empresas ya podrían solicitar un permiso como comercializadoras para ofrecer el servicio. Pero ninguna de ellas lo ha buscado ni para servicio local o Larga Distancia”,

Al ser Skype y Vonage servicios que no incluyen el uso de una infraestructura de acceso (como lo sugería la idea original de un servicio ofrecido a través de una Comercializadora), podría ser discutible si la figura de Comercializadora avala o no a estos servicios tal y como hoy operan. Yo particularmente pienso que la respuesta es un enfático “Sí”, si bien, insisto, es posible que el tema genere más debate.

Lo que es un hecho es que no abona en nada para la causa de estas empresas el no haber empezado los trámites más mínimos para solicitar tales permisos.

Convergencia: ¿Problema de Regulación o de Políticas Públicas?

La Revista L@tin.tel de Regulatel publica en su último número mi artículo: Convergencia: ¿Problema de Regulación o de Políticas Públicas? donde planteo los problemas que la Convergencia trae al Regulador:

• En el mundo convergente, regular las redes públicas o sus operadores no significa en automático regular todos los servicios accesibles al usuario por estas redes.

• Industrias reguladas principalmente por criterios antimonopolio (cómputo), se funden con aquellas con regulación específica y enfoques distintos, por ejemplo, las telecomunicaciones con enfoques a la infraestructura y/o la competencia y los medios de radiodifusión con enfoque al interés público.

• Los marcos regulatorios y de política pública permanecen enfocados y restringidos a las fronteras de cada subsector de telecomunicaciones.

Analizando las experiencias de migración a la TV Digital y España, queda claro que el regulador no puede establecer reglas claras y conducentes, sin un objetivo establecido al nivel de Políticas Públicas.

Texto completo del artículo en PDF.

Interconexión, el eterno problema

El día de ayer fui citado por Reforma respecto a la larga problemática que representa el tema de Interconexión en el ámbito de las telecomunicaciones mexicanas.

Los problemas de interconexión no son exclusivos del mercado Mexicano ni son recientes, pues denegar la interconexión o hacerla prohibitiva es una táctica fácil para que operadores dominantes saquen del mercado a otros jugadores. Algunos otros casos:

• En 1974 AT&T desconectó unilateralmente a MCI. Ante esto MCI levantó una demanda anti-monopolio que fue seguida casi inmediatamente por una similar del Departamento de Justicia en Estados Unidos y eventualmente a la desintegración de AT&T en 1984 (la cual se da por otras razones más pero la desconexión fue la “gota que derramó el vaso”).

• A finales de los 90’s Telmex desconectó (entre una disputa de cuentas por pagar) los circuitos privados que Avantel le rentaba para dar servicios a grandes empresas. El asunto no pasó a mayores porque la ley mexicana no reconocía este tipo de servicios como interconexión.

• La discusión sobre los cargos de interconexión internacionales entre redes de Internet revive periódicamente y de hecho la OCDE publicó a finales del año pasado un documento comentando el problema.

Política Pública para las Telecomunicaciones: Ventanilla Nula

Frecuentemente se escucha la crítica que académicos y especialistas hacen al modelo de relación de la autoridad con la industria de telecomunicaciones en México, la comúnmente denominada “doble ventanilla”. Su existencia se refiere al caso en que los dos órganos relevantes del sector tienen funciones relacionadas pero con jerarquía distinta: la SCT debe ejercer la rectoría del Estado en términos del diseño de la Política Pública con metas de largo plazo (el “qué”) y la Cofetel debe definir las regulaciones que establecen con detalle los derechos y obligaciones de las partes involucradas para el logro de las metas (el “cómo”).

La realidad, sin embargo, es que la industria tiene que enfrentar la parálisis que genera la continua disputa entre estos dos órganos y sus criterios frecuentemente contradictorios.
Sin embargo, permítame señalar un tema que es aún más grave: el hecho de que históricamente, ninguna de las dos autoridades ha ejercido un liderazgo efectivo en la definición de las Políticas del Sector. Me valgo de una revisión a la experiencia de dos socios comerciales estratégicos (España y Estados Unidos) en su definición de una Política Pública clave (la migración a la TV digital).

Estados Unidos – Más servicios

En los Estados Unidos, la mayoría de la población tiene acceso a servicios de TV por cable, pero el uso de teléfonos móviles es menos común que en Europa y los accesos de banda ancha son menos abundantes que en países como los escandinavos y Corea. ¿Qué definió Estados Unidos como prioridad en el proceso de migración a la TV digital?, siendo ésta una tecnología más moderna y eficiente (con el espectro radio eléctrico donde hoy se transmite un canal de TV analógica, se puede dar espacio a hasta 4 canales de TV digital) en Estados Unidos se dio prioridad a reutilizar el espectro liberado después de la migración para permitir una mayor oferta de servicios de telecomunicaciones.

Estados Unidos finalizará su migración en el año 2009, pero hoy ya subasta el espectro que quedará libre para permitir la entrada de nuevas empresas de telecomunicaciones y las empresas de TV tienen la opción de considerar utilizar una parte del espectro para otros servicios. Tal apertura incluso ha permitido que el gigante de las búsquedas de Internet, Google, esté considerando entrar a este mercado.

España – Más canales

España finalizará su migración en el año 2010 luego de haber adelantado el proceso y a pesar de que la Unión Europea le daba margen para hacerlo hasta 2012. En su Política, España define un primer objetivo muy simple: tener más canales de TV abierta mediante un esquema que incremente “el pluralismo reforzando la libertad de elección de los ciudadanos”.

México – Tarde y sin objetivos

¿Qué define para el caso mexicano la Política de Televisión Digital definida por los entonces Secretario y Subsecretario Pedro Cerisola y Jorge Alvarez-Hoth? Le pido encarecidamente que no se ría. La mencionada Política tiene como su primer objetivo “La inclusión digital” que permitirá que “la sociedad se beneficie de las ventajas que ofrece esta tecnología”. En un ejemplo de libro de texto sobre lo que sería una definición tautológica, nuestra Política define que debemos migrar a la TV digital para poder ser digitales y disfrutar el serlo. Como segundo objetivo define la “Calidad” para contar “con imágenes y sonido de mayor fidelidad y/o resolución”, lo cual es una cualidad opcional de la tecnología y no pareciera ser un objetivo socialmente más deseable que gozar de una mayor oferta de servicios (mencionado someramente en cuarto lugar) o de contenidos televisivos (omitido).

Por si esto fuera poco, se define como una meta para la migración el año 2021; es decir, tardaremos 12 años más que Estados Unidos, 11 más que España y 5 más que Brasil: todos ellos países con los que por relaciones comerciales, culturales y geográficas tiene mucho sentido que nos comparemos.

¿Qué camino sería el mejor para México?, ¿el seguido por España o el elegido por Estados Unidos?, es probable que las necesidades de nuestro país nos lleven a considerar un esquema mixto, donde se busque maximizar el uso del espectro con la intención de permitir avances significativos en ambos temas.

Con esta perspectiva, además, muchas de las politizadas discusiones que siguieron a partir de y persisten sobre las Reformas a las Leyes de Telecom y Radiodifusión de 2006 parecerían totalmente bizantinas, si bien entendibles una vez que, ante la problemática de definir temas de fondo, la ventanilla de la autoridad responsable ha sido funcionalmente nula.

La agenda de la Ciberburocracia

Recientemente una reportera me preguntaba sobre la Agenda Global de Cibeseguridad de la ITU, estos fueron mis comentarios:

Todo análisis del tema debe de considerar dos aspectos vitales:

1. Que toda política de ITU hacia Internet parte, antes que de cualquier otra cosa, del esfuerzo de la institución por mantener su sobrevivencia y relevancia en el mundo de Internet, donde, a diferencia de la red telefónica tradicional, la agencia tiene muy poca capacidad real de fijar estándares tecnológicos o normas para fijar políticas públicas.

2. Que en temas de ciberseguridad hay dos tipos de amenazas:

El cibercrimen: que la Propuesta de una Convención Internacional para Cibercrimen y Terrorismo de la Universidad de Stanford define como:

• La acción de crear o usar programas que provoquen que un sistema de cómputo deje de operar en la forma como fue concebido o realice funciones no contempladas por su dueño legítimo.

• La acción de crear, modificar, borrar o manipular datos en un sistema de cómputo con la intención de proveer información falsa para causar daños a las personas o a las propiedades.

• Obtener acceso a un sistema restringido.

• Usar un sistema de cómputo como factor material para la comisión de un acto penado por las diversas convenciones en materia aeronáutica, marítima, de actos terroristas y narcotráfico.

Y donde tiene más impacto los esfuerzos y políticas que fijan autoridades judiciales y financieras locales en cada país más allá de lo que diga la ITU. Es decir, tiene más impacto (para el ejemplo de México) toda la iniciativa de protección a usuarios de banca electrónica de la CNBV y los esfuerzos de la AFI por combatir la pornorafía infantil que cualquier discurso de una burocracia internacional cuyo único incentivo es mantener una posición de poder.

El ciberterrorismo: que el Taller sobre la Creación de Confianza en Infraestructuras de Red Críticas (término que involucra a todos los tipos de redes no solo Internet tanto en su parte física –las redes- como lógica – el software-) realizado en la República de Corea del Sur en Mayo del 2002 define como el Cibercrimen cometido por una amenaza estratégica, que es la que posee las siguientes características que la distinguen del criminal casual:

• Es estructurada, de forma tal que la fuente de una amenaza es una organización y no un individuo aislado.

• Está bien financiada, de forma que cuenta con equipo, tecnología y personal necesarios para operar un ataque de gran escala desde múltiples localidades.

• Es un actor hostil al tener fines antagónicos con los de la parte atacada. Tiene objetivos de ataque bien definidos y estándares específicos de operación.

• Protege a su personal, haciéndolo difícil de identificar, localizar y aprehender.

• La estructura hostil es respaldada por una o varias agencias de inteligencia, permitiendo la infiltración de agentes que puedan tener acceso de primera mano a la operación de la ICRT o información relevante a ésta.

• Puede compartir información con otras organizaciones afines a sus intereses políticos.

Y donde es lamentable que ITU haya reducido el ámbito de su trabajo del especificado por el Taller citado a la actual Agenda de Ciberseguridad, alejada totalmente de los temas de infraestructura física (el fuerte tradicional de ITU) y más enfocada a temas de seguridad lógica, tópico donde, frente a la autoridad para fijas estándares de la IETFy a los mecanismos de cooperación como los establecidos informalmente a través de las comunidades que integran los RIRs y en el caso de Latinoamérica LACNIC, realmente ITU tiene muy poco poder de convocatoria e influencia.

Elementos y protocolos claves en la red VoIP de un operador

Recientemente un lector de este blog me hizo una pregunta sobre los “protocolos que utilizan los operadores para conectar sus ruteadores a las líneas telefónicas (sic)”.

La respuesta terminó en una breve referencia rápida sobre protocolos VoIP, la arquitectura a la que pertenecen y sus usos comunes. La comparto con los lectores de este blog:

Generalmente la función de conectar llamadas en alguno de los múltiples protocolos de voz sobre IP a la red telefónica no la realiza no un protocolo, sino un dispositivo: típicamente un softswitch.

El Softswitch hace las funciones de una central telefónica tradicional pero en una arquitectura de cómputo abierto (generalmente basada en algún tipo de UNIX) que tiene dos componentes:

  • Un Call Agent, que realiza toda las funciones de conmutación, señalización y generación de registros de la llamada (CDRs = Call Detailed Records – necesarios para facturar las llamadas).
  • Un Media Gateway, que ofrece la posibilidad de integrar las distintas tecnologías de transmisión como pueden ser enlaces TDM tradicionales (E1, DS3, STM-1, etc, para voz sobre circuitos) o enlaces Ethernet (100Mbps, 1Gbps, etc.) transportando voz sobre IP.

En el ámbito de redes de circuitos el Softswitch debe ser capaz de comunicarse con sus pares en los protocolos de voz tradicionales (SS7). En el ámbito VoIP, el Softswitch debe de tener además la capacidad de señalizar en alguno de los protocolos para esta tecnología que parten de la arquitectura tradicional de la red telefónica (maestro-esclavo) como H.248/Megaco o MGCP.

Arquitecturas de servicio más modernas (las que usan los servicios comerciales de VoIP al usuario final como Vonage, Masternet de AT&T o BLAST de Iusacell) están basadas en un modelo peer to peer donde la señalización no está centralizada (softswitch) sino más bien existe un servidor que sólo autentifica y autoriza a los usuarios (un “gatekeeper” en H.323 y un SIP Server en el caso de SIP, éste último siendo el estándar de facto sobre el cual la industria está enfocando todos los desarrollos de nuevo hardware, software y aplicaciones).

Las arquitecturas peer to peer asumen que los dispositivos finales del usuario son bastante inteligentes (tienen un microprocesador y corren algún software) como para ser capaces de implementar por software funcionalidades al usuario como establecer llamadas, hacer llamada en espera, call forwarding, conferencia tripartita y otros servicios, sin depender de un dispositivo central (como es un softswitch) que provea la inteligencia necesaria (a través de señalización) .

De cualquier forma, generalmente estos servicios peer to peer aún requieren del uso de un softswitch exclusivamente para la interconexión de llamadas a la red telefónica pública.

Las verdaderas intenciones de Google

¿Qué busca Google en el sector de las telecomunicaciones móviles?

Por lo que se lee en la prensa, se puede suponer que Google quiere probablemente alguna o todas las siguientes cosas:

  • lanzar un teléfono
  • lanzar una plataforma/sistema operativo para cualquier teléfono fabricado por terceros
  • “liberar a los usuarios” de la opresión ejercida por las tres grandes operadoras celulares en los Estados Unidos (AT&T, Verizon y Sprint)
  • Me enfoco en el último punto. En una carta a la FCC Google solicitó que la próxima licitación de espectro en la banda de 700Mhz cumpla con cuatro condiciones a las que Google refiere como:

  • “Open applications” – el derecho del usuario de descargar y usar cualquier aplicación
  • “Open devices” – el derecho del usuario de conectar el dispositivo que desee a la red
  • “Open services” – la obligación del titular del espectro de rentar capacidad a terceros (operadores virtuales – MVNOs)
  • “Open networks” – la obligación de ofrecer interconexión a proveedores terceros
  • Hace cuatro años escribí un artículo llamado “Los nuevos derechos del usuario de telecomunicaciones” donde apoyaba, entre otras, las dos primeras ideas dentro del objetivo último de reconocer el “Derecho del usuario a poder explotar su servicio de red enteramente a su conveniencia”.

    Pareciera entonces que comparto la misma visión de Google sobre el futuro de los servicios de telecomunicaciones. Desafortunadamente no es el caso y, como en todo debate que involucre una visión de futuro para el mercado en su conjunto, los detalles hacen una gran diferencia.

    La principal crítica que hago a la noble labor que ha emprendido Google para “promover la innovación e incrementar las opciones a los consumidores” es que está incompleta pues no debe incluir sólo los dispositivos y las aplicaciones sino también la plataforma (e.g. sistema operativo) de su terminal. Específicamente mi propuesta dice:

    4. El usuario tendrá libertad absoluta para elegir los componentes de software de su terminal (sistema operativo, plataforma de aplicaciones y aplicaciones en sí).

    Al plantear esa lista de derechos, busque definir un ideal que buscara guiar la labor del regulador que enfrenta la labor de regular las redes y servicios basados en tecnología de nueva generación. Pero no soy ingenuo, un ideal es solo eso y un buen diseño de política pública es siempre algo susceptible de ser mejorado, algo que busca el mejor de los escenarios posibles, no necesariamente el mejor escenario deseable (el ideal).

    En el mundo real, la libertad que hoy tiene el usuario para instalar, descargar y usar la aplicación que desee, en la PC que decida comprar con el proveedor de Internet de su preferencia. Pero tantas libertades tienen un costo y este se da en la forma de las limitadas opciones que el usuario tiene en la plataforma básica (sistema operativo) e incluso en algunas aplicaciones: aún con distintos sistemas operativos, la vida es más fácil para los usuarios que usan y comparten archivos en formato de Microsoft Office y un dolor indescriptible para los que optaran (teóricamente) por no hacerlo.

    Finalmente, ¿qué desea Google?. Estoy convencido de que la empresa realmente quiere que los usuarios tengan más opciones de servicios, aplicaciones y dispositivos móviles; sólo que nadie ha reparado en el costo implícito: Google busca monopolizar el diseño de la arquitectura de los nuevos dispositivos de la misma forma como Intel y Microsoft hoy lo hacen con las PCs.

    Es posible que el costo de tener una plataforma de Google en todos o la mayoría de los teléfonos móviles sea menor que los beneficios de contar con diversidad de dispositivos y aplicaciones compatibles, pero hoy no tendríamos forma de saberlo.

    Sí podemos, sin embargo, saber cuál es el costo en el caso de las plataformas de cómputo. Es antigua la crítica de que una empresa debe de comprar equipos con prácticamente el mismo poder de cómputo para una asistente que sólo escribirá cartas en Word que para un analista financiero que hará demandantes cálculos en Excel. En ambos casos, también será más práctico comprar una licencia completa de Microsoft Office a ambos usuarios, independientemente de que no usen todas las aplicaciones adquiridas.

    Si Google busca definir el estándar para aplicaciones y dispositivos móviles de nueva generación, adelante y ojalá que, si su propuesta ofrece valor a los actores de mercado involucrados (usuarios y operadores), la empresa sea exitosa en ello. Pero debemos ser claros en los costos asociados a este escenario, de la misma forma como debemos esperar que Google o cualquier otra empresa, triunfe en el mercado abierto y no buscando diseñar regulación a la medida.

    Nota final: se puede argumentar que el de Intel no es monopolio sino un oligopolio con AMD en el mercado de microprocesadores. Por eso anoté “monopolizar el diseño”. AMD estaría muerta sino diseñara chips que fueran 100% compatibles con la arquitectura dictada por Intel.

    ¿Regular los servicios de Internet protege al consumidor?

    Reforma me cita el día de hoy sobre el status regulatorio de los servicios de acceso a Internet en México:

    Internet es considerado como un servicio de valor agregado, cuyo prestador no está obligado a justificar y registrar sus tarifas, según detalla el artículo 33 de la Ley Federal de Telecomunicaciones.

    Para estos servicios no se requiere de concesión o permiso y bastará con un registro ante la SCT, situación que es así desde la promulgación de la Ley de Telecomunicaciones en mayo de 1995, explicó el investigador del Instituto del Derecho de las Telecomunicaciones, Carlos Silva.

    El reportaje se enfoca en los aspectos “negativos” de que Internet no sea regulado, específicamente una supuesta “desprotección” del usuario.

    No estoy de acuerdo, Internet es un mercado que nació desregulado con la idea de que naciera y se mantuviera competitivo. Se puede discutir que esta noción surge cuando para ser un ISP no se requería desplegar infraestructura de telecomunicaciones (cuando el acceso era predominantemente por marcación a través de la red telefónica) y que ésto ya no es válido en un mundo de banda ancha. Hay dos elementos a considerar antes de emitir un juicio sobre el tema:

    1. Internet raramente se ofrece como un servicio “stand-alone”, generalmente va asociado a un servicio regulado (telefonía, TV por cable) que ofrece obligaciones particulares a la red de acceso. Si el propuesto Plan Técnico Fundamental de Interconexión e Interoperabilidad que impulsa COFETEL es implantado (parece ser que así será), se crearán obligaciones como la desagregación del acceso local que es una obligación para las redes públicas de telecomunicaciones (que son reguladas) que tendrá un impacto directo sobre la provisión de servicios de Internet (que no cambia su status de servicio “desregulado”).

    2. Cuando un consumidor tiene una queja ante un proveedor de servicio no acude con la ley de Telecomunicaciones en mano ante la SCT o COFETEL, sino a la Profeco, que trata con igual rigor a proveedores de servicios de telecomunicaciones sean regulados o no.

    El status regulatorio de un servicio determina los incentivos que existan a largo plazo para la inversión, la competencia y la provisión de servicios de calidad a todos los usuarios en su conjunto. Tal status, poco o nada tiene que ver con resolver el problema de un usuario particular, para ello existen otras instancias.