L’abondance des contenus, des offres et des informations disponibles en ligne a rendu courante l’utilisation d’algorithmes automatiques afin de classer et comparer des contenus, d’ajuster les prix en temps réel, ou encore de mieux cibler la publicité. Si ce contexte peut augmenter la concurrence, grâce à une comparaison plus efficace des offres par exemple, les algorithmes peuvent également réduire l’intensité concurrentielle.

En matière d’abus de position dominante, des plateformes de recherche en ligne peuvent par exemple favoriser leurs propres offres ou services en programmant leur algorithme pour qu’il les mette en avant. Ce type de pratique fait notamment l’objet d’une investigation de la Commission européenne vis-à-vis de Google. De même, les algorithmes peuvent favoriser la collusion, par exemple en étant programmés pour s’aligner sur les hausses de prix des concurrents, ou bien en convergeant d’eux-mêmes vers un équilibre collusif via, par exemple, des méthodes d’apprentissage. Ces pratiques pourraient être difficiles à mettre en exergue et, le cas échéant, à poursuivre pour les autorités de concurrence. En outre, certains algorithmes qui conduisent à des offres très personnalisées peuvent interroger sur la définition du marché à analyser.

Dans ce contexte, la loi pour une République numérique a notamment mis en œuvre certaines obligations de transparence concernant les plateformes numériques.

 

Intervenants :

  • Serge Abiteboul, directeur de recherche à l'Institut national de recherche en informatique et automatique (Inria), ENS Paris, membre de l’Académie des sciences
  • Thierry Pénard, professeur d'économie à l'Université de Rennes 1 et chercheur au CREM (CNRS)
  • Jérôme Philippe, économiste, avocat associé chez Freshfields Bruckhaus Deringer

Le débat a été  animé par Thierry Dahan, vice-président de l'Autorité de la concurrence