Consommateur, si tu savais…

Le Blog d'Alain Bazot, Président de l'UFC-Que Choisir

Archive pour la catégorie ‘Multimédia – Télécom’

Enquête de l’ARCEP sur la qualité des services mobiles : une transparence bas débit !

mardi 12 juillet 2016

©Fotolia

 

L’Autorité de régulation des communications électroniques et des postes (ARCEP) a publié ce matin son rapport annuel consacré à la qualité des services mobiles. Ce rapport, qui n’est pas sans intérêt, mérite à la fois d’être salué au regard des progrès méthodologiques accomplis, mais également d’être critiqué compte tenu des limites qu’il s’impose sans réelles justifications.

Lors de la publication de la mouture 2015 de l’enquête de l’ARCEP, je n’avais pu que regretter l’occasion manquée, notamment au regard des sommes investies pour la réaliser, d’élaborer un document réellement pertinent et éclairant pour le choix des consommateurs en raison d’une méthodologie inadaptée notamment en raison des critères retenus pour tester sur le terrain la qualité de l’internet mobile. Même si le nouveau protocole désormais retenu par l’ARCEP n’est pas totalement conforme à l’idée que je me fais d’un protocole et ne reprend pas l’ensemble des légitimes attentes des consommateurs, je tiens toutefois à saluer l’évolution positive de la méthodologie de contrôle de la qualité de service mobile qu’elle a mis en place.

De même, si l’édition 2015 avait été marquée par une erreur rédhibitoire du prestataire retenu par l’ARCEP qui avait abouti à considérablement restreindre l’analyse des comparaisons de la qualité de service selon la densité de population, cette analyse est aujourd’hui (enfin !) rendue pleinement possible.

Ces deux améliorations permettent, d’une part, de révéler des disparités importantes de qualité entre opérateurs mais aussi de mettre en lumière ce que des études de terrain menées par l’UFC-Que Choisir avaient déjà identifié et chiffré : l’existence de très fortes variations de qualité selon la densité de population. La discrimination géographique est saisissante : la qualité de service peut varier du simple au triple, selon que l’on s’intéresse aux zones rurales ou aux zones denses ! Et encore, uniquement lorsque l’on porte l’attention uniquement à la 3G. Concernant la 4G, cette fracture sur la qualité se mue en une cassure insupportable. C’est ainsi par exemple que le débit moyen constaté avec un terminal 4G est près de 6 fois supérieur dans les zones denses que dans les zones rurales ! Il est grand temps de ne plus accepter l’inacceptable. Des critères de qualité de service minimale, assurant à tous les consommateurs de pouvoir utiliser dans de bonnes conditions l’internet mobile, doivent enfin être mis en place !

Bien que cette version 2016 de l’enquête de l’ARCEP soit parvenue à évoluer dans sa méthodologie, il est en revanche une regrettable constante : la piètre qualité de service obtenue par Free Mobile ! L’opérateur collectionne les bonnets d’âne en termes de qualité. Pire pour l’opérateur, et ses abonnés, non seulement il ne parvient que très rarement à se hisser sur le podium, mais en plus la remise d’une médaille autre qu’en chocolat semble constituer pour lui un mirage tant il est décroché de ses compétiteurs sur la qualité des services de l’internet mobile !

Si au global Free Mobile est d’une piètre qualité, une analyse plus poussée des données permet de douter que les problèmes constatés sur l’itinérance Orange utilisée pour fournir du service 3G à ses abonnés se soient dissipés (problèmes, dois-je le rappeler, soulevés de longue date par l’UFC-Que Choisir). Notamment, les données font apparaitre certaines curiosités. A titre d’illustration, alors que dans les zones rurales (à priori celles qui font le plus appel à l’itinérance Orange) le taux de réussite de l’accès à un site internet en moins de 5 secondes est équivalent à celui des autres opérateurs (autour de 40 %), dès que l’on s’intéresse au test de services plus gourmands en bande passante (téléchargement de fichiers de 10 Mo ou lecture d’une vidéo en streaming sur YouTube), c’est la débandade : Free Mobile est à minima 10 points derrière les autres opérateurs.
Bien entendu, je ne me contente pas de dresser, à nouveau, ces constats. Il faut aller plus loin, plus vite. Il faut que le régulateur aille plus loin. Il faut que les institutions judiciaires aillent plus vite.

L’ARCEP tout d’abord. Il serait souhaitable qu’elle aille plus loin dans la fourniture au grand public des données collectées sur le terrain. C’est l’une des déceptions majeures de l’enquête présentée aujourd’hui. Alors que l’UFC-Que Choisir demande une ouverture poussée en open data des données détenues par l’ARCEP, les données qu’elle met aujourd’hui à la disposition du public en open data ne constituent majoritairement qu’une resucée de celles présentes dans le rapport ! Quid des différences de qualité selon que le trafic généré par les abonnés de Free Mobile passe par le réseau propre de l’opérateur ou en itinérance ? Quid des données sur le téléchargement de fichiers selon le type d’extension (pour déterminer si les fichiers multimédias sont victimes ou non de restrictions) ?

Il également indispensable que l’Autorité ne se cantonne pas à dresser des constats. Elle doit également en tirer le bilan. Ce bilan, elle ne le réalise pas alors qu’elle le devrait ; plus que jamais. En effet, personne ne peut feindre d’ignorer que l’environnement réglementaire a évolué depuis l’année dernière. Le règlement européen 2015/2120 consacré à la neutralité d’internet est directement applicable depuis le 30 avril 2016. Or ce règlement vise, sinon à empêcher, à rendre illégal la gestion des réseaux qui aboutiraient à procéder à une discrimination sur les flux. Si les données aujourd’hui dans les mains de l’ARCEP devaient traduire l’existence de telles discriminations, il serait intolérable qu’elle ne juge pas utile d’ouvrir une enquête approfondie sur les pratiques incriminées !

Ceci aurait qui plus est peut-être une vertu collatérale : permettre à la plainte déposée par l’UFC-Que Choisir en janvier 2013 contre Free Mobile d’enfin parvenir à un jugement. La justice, disais-je, doit également avancer plus vite. Cela fait maintenant plus de 3 ans que notre plainte pour pratiques commerciales trompeuse est instruite. Combien de temps encore les consommateurs devront-ils attendre que la lumière soit faite sur la nature des restrictions sur l’itinérance Orange utilisée par Free Mobile ?

Bref, je ne peux que constater les avancées très bas débit vers la transparence…

Accord Canal Plus / BeIN Sports : carton rouge ! A quand le prochain ?

jeudi 9 juin 2016

foot

L’Autorité de la Concurrence a rejeté aujourd’hui le projet d’accord de distribution exclusive de BeIn Sports par le groupe Canal Plus qui lui avait été présenté. Je considère que c’est une bonne nouvelle pour les consommateurs tant les contours de cette accord laissaient présager des hausses de prix pour les abonnés de BeIn Sports, dont la stratégie tarifaire aurait été dans les mains de Canal Plus. En effet, en tant que distributeur exclusif, c’est Canal Plus qui aurait décidé du prix de vente de BeIN Sports aux consommateurs. Dès lors, rien n’aurait empêché Canal Plus de faire passer l’abonnement de 13€ à 20€, pour inciter les consommateurs à souscrire à une offre groupée Canal Plus/BeIN Sports… chère et probablement avec une période d’engagement ! Vous conviendrez avec moi de l’anomalie que constitue une situation ou un groupe de télévision est en charge de définir la politique tarifaire d’une autre chaine qui est qui plus est son concurrent direct dans l’acquisition des droits sportifs ! Or les garde-fous à cette situation hétérodoxe n’étaient aucunement mis en place par le groupe Canal Plus…

Au-delà de ce point, une problématique plus globale d’accessibilité aux contenus sportifs premium par les consommateurs se pose. En effet, SFR a acquis récemment les droits de diffusion de la Premier League anglaise et il est tout à fait envisageable que le fournisseur d’accès à internet ne réserve qu’à ses abonnés la capacité d’accéder à ce programme. Si demain Orange, Free ou encore Bouygues Telecom adoptait la même stratégie pour, par exemple, le Top 14 de rugby, un consommateur pourrait être dans l’incapacité technique d’accéder au Top 14 ET à la Premier League. Si le frein financier est un réel problème, le frein technique est quant à lui carrément inacceptable.

Si les craintes que l’on peut avoir sur la stratégie d’exclusivité de SFR devaient malheureusement se réaliser, alors je saisirais les pouvoirs publics pour que soit imposées des règles garantissant un accès non discriminatoire des consommateurs aux contenus sportifs !

Apple nous aurait-il pris pour des pommes ? Arrêtons de croquer n’importe quoi…

vendredi 13 mai 2016

obsolescence

Il y a quelques semaines, de nombreux médias se sont empressés de relayer la « preuve » qu’Apple reconnaissait l’obsolescence programmée de ses équipements… A l’origine notamment de cette affaire, des « questions et réponses » dans laquelle la firme de Cupertino détaille sa politique environnementale. Toutefois, en y regardant de plus près, point d’obsolescence avouée mais une information sur l’usage des utilisateurs… Voilà qui est fort différent. En effet, en détaillant le processus d’évaluation d’émission de gaz à effet de serre de ses produits, Apple explique qu’en regardant l’usage de ses utilisateurs elle estime la durée de vie de ses téléphones à trois ans, et celle de ses ordinateurs à quatre ans et ne manque pas de préciser que ses appareils durent souvent plus longtemps, et qu’ainsi, beaucoup d’utilisateurs les revendent après les avoir utilisés durant ces trois années. Voilà donc une affaire qui a fait pschitt…

Alors qu’en France, le débat se concentre actuellement sur la disponibilité des pièces détachées et les délais de garanties, ce n’est pas la première fois que les constructeurs d’appareils high-tech sont mêlés au spectre de l’obsolescence organisée. En janvier dernier aux Etats-Unis, une action de groupe a été initiée à l’encontre d’Apple, suspectée de ralentir volontairement les anciens appareils par le biais des mises à jour de logiciels (via l’installation de l’iOS 9 sur l’iphone 4S en l’espèce). De même, nos homologues hollandais de la Consumentenbond ont récemment assigné Samsung au motif que le constructeur n’informait pas suffisamment les consommateurs sur la disponibilité et compatibilité des dernières versions de mise à jour, 82% des appareils testés par nos confrères n’ayant pas reçu la dernière version d’Android durant les deux ans qui ont suivi l’achat.

C’est d’ailleurs bien pour cela que je préfère parler d’obsolescence « organisée » : car si nous ne pouvons rien ou si peu contre les « effets de mode »  exploités par Apple – et auxquels la firme participe à grands coups de marketing, un appareil rendu inutilisable faute de mise à jour possible, ou inversement lorsque la mise à jour handicape le fonctionnement de l’appareil est purement et simplement inacceptable! Si le comportement du consommateur, comprenez, sa volonté d’avoir le tout dernier modèle pèse certainement dans la balance de l’obsolescence high-tech, je ne peux néanmoins manquer d’appeler les professionnels du secteur à revoir la mise à jour de leurs systèmes d’exploitation pour des appareils réellement durables.

« Privacy Shield » : un bouclier en papier selon les CNIL européennes

jeudi 28 avril 2016

CJUE Rappelez-vous ! En octobre dernier, je me félicitais de la décision de la Cour de justice de l’Union européenne d’invalider le Safe Harbour, au motif que les Etats-Unis n’offraient pas une protection suffisante des données personnelles par rapport à la législation en vigueur dans l’Union européenne. Depuis, la situation demeure floue avec plusieurs entreprises signataires de l’ancien Safe Harbour se trouvant dans l’illégalité dès lors qu’elles transfèrent des données collectées en Europe vers les Etats-Unis. Pour remédier à cette situation, les négociateurs des deux continents ont présenté le 29 février le « Privacy Shield », un nouveau projet d’accord censé répondre aux critiques de la Cour et garantir une équivalence de protection entre les deux continents.

Présenté en grande pompe par la Commission européenne, ce «bouclier de protection des données UE-États-Unis» (en français) m’a laissé quelque peu sur ma faim… Aurais-je crié victoire un peu trop vite… ? Je ne peux en tout cas que me ranger à l’avis des CNIL européennes, réunies au sein du groupe « G29 », rendu le 15 avril, qui exprime de « sérieuses préoccupations », malgré les quelques améliorations relevées. A titre d’exemple, le principe de finalité des données qui n’autorise la collecte d’une donnée que pour un usage délimité et légitime n’apparaît pas clairement dans le projet de décision, laissant encore beaucoup trop de place aux pratiques de collecte massive outre-Atlantique. De même, à ce stade, les mécanismes d’action en réparation semblent trop complexes pour que les consommateurs européens puissent pleinement bénéficier d’une protection efficiente aux Etats-Unis. Surtout, et alors que le nouveau règlement relatif aux données personnelles vient d’être adopté, aucune clause de révision n’est prévue, de sorte que l’accord demeure calqué sur des dispositions datant de… 1995. Autrement dit, ce bouclier souffre d’obsolescence programmée… pour 2018.

Faut-il rappeler que si le droit au respect de la vie privée est érigé en liberté fondamentale au sein de l’UE, il n’en est rien aux Etats-Unis où par ailleurs, les données personnelles ne font l’objet d’une protection législative que dans certains domaines précis. Les préoccupations relevées par le G29, bien qu’elles ne soient pas contraignantes, doivent être interprétées à la lumière de ces différences. Ce seront en effet ces mêmes autorités européennes qui seront saisies des plaintes de consommateurs européens lésés et donc, aptes à trancher ces litiges avec les entreprises américaines… Cet avis ne devrait donc pas passer inaperçu auprès de la Commission européenne qui – je l’espère – saisira le message politique envoyé par le G29 avant d’adopter la décision finale.

Concurrence et investissements : le beurre et l’argent du beurre au bénéfice de tous les consommateurs !

mardi 12 avril 2016

sauvegarde template test note de blog

La fin du feuilleton sur le rapprochement entre Orange et Bouygues Telecom me permet de revenir à froid sur une question fondamentale : est-il possible de concilier l’existence d’un marché caractérisé par un haut niveau concurrentiel et le développement des investissements dans le secteur des télécommunications ?

Les partisans d’une concentration du secteur soulignaient sa nécessité afin de permettre aux opérateurs de disposer des marges de manœuvre nécessaires afin de déployer au mieux le très haut débit mobile (4G aujourd’hui et 5G à l’horizon 2020) et le très haut débit fixe (la « vraie » fibre notamment). Autrement dit, selon les hérauts de la concentration, le maintien d’un haut degré d’intensité concurrentielle serait un obstacle rédhibitoire au déploiement de ces réseaux de nouvelle génération. Or, rien n’est moins faux.

Il est vrai que moins de concurrence, signifie davantage de revenus pour les opérateurs (sous l’effet conjugué de parts de marché moyennes plus hautes et de prix plus élevés) et en conséquence de meilleures marges (puisqu’il s’agit majoritairement d’une économie de coûts fixes). Mais cela signifie-t-il pour autant plus d’investissements ? Lorsque l’on regarde les chiffres de l’investissement des opérateurs sur une période longue, on se rend compte que les investissements actuels se situent dans la fourchette haute des montants mis en œuvre (près de 7 milliards d’euros investis en 2014 hors achats de fréquences). En conséquence, moins de concurrence ce n’est pas plus d’investissements, et plus de concurrence ce n’est pas moins d’investissements ! Ceci s’explique aisément. La concurrence est un puissant moteur de l’investissement. Dans un marché concurrentiel, chaque opérateur doit se démarquer des autres par la qualité de son réseau (couverture et qualité de service) et pour ce faire, il est indispensable d’investir !

Ainsi, aujourd’hui les opérateurs téléphoniques sont assez largement en avance par rapport aux objectifs de déploiement de la 4G. Néanmoins, certains semblent ne pas suivre les objectifs propres aux zones parmi les moins denses du territoire, comme a pu l’indiquer récemment l’ARCEP. Ceci me permet d’indiquer que je ne suis pas dupe ; je n’attribue pas à la concurrence toutes les vertus possibles et imaginables. S’il est incontestable que la concurrence dans les communications électroniques est bénéfique pour le pouvoir d’achat des consommateurs elle est loin de garantir le développement des réseaux dans les zones les moins densément peuplées, qui ne sont peu ou pas rentables pour les opérateurs. C’est un argument qu’emploient les opérateurs pour plaider un affaiblissement de l’intensité concurrentiel qui leur donnerait davantage de moyens pour investir dans ces zones. Néanmoins cet affaiblissement ne garantirait pas ces investissements dans ces zones.

D’une part de nombreuses zones sans réseaux ou avec des réseaux de piètre qualité sont aujourd’hui les vestiges d’une époque sans concurrence. D’autre part les opérateurs omettent de préciser que ce sont majoritairement des fonds publics qui permettent le déploiement de la fibre optique et que des fonds publics interviennent également pour permettre aux opérateurs de déployer des antennes dans les zones blanches.

En réalité, le problème de l’investissement dans les zones non rentables dépasse le seul aspect du niveau concurrentiel. Sauf à mettre en place des tarifs prohibitifs pour l’internet, des zones du territoire resteront toujours non rentables pour les opérateurs. C’est la raison pour laquelle, au-delà de la question des financements publics, il convient que les opérateurs mutualisent le plus possible leurs investissements dans les réseaux sur les zones non rentables. Ainsi, grâce à une mutualisation des coûts de déploiement des réseaux entre opérateurs bien plus poussée que celle actuellement constatable, les consommateurs pourront à la fois bénéficier d’une concurrence effective, et accéder rapidement au meilleur de la technologie…