CAIRN.INFO : Matières à réflexion

1L’intelligence artificielle constitue l’un des facteurs majeurs de disruption dans notre économie numérique d’ores et déjà basée sur les algorithmes (Brynjolfsson et McAfee, 2014 ; Ezrachi et Stucke, 2016 ; Calo, 2017). Cet article développe une perspective d’économie du droit pour saisir ses enjeux concurrentiels. Si ceux-ci se déclinent en deux volets, les abus de position dominante (notamment les pratiques de discrimination par les prix) et les ententes, il traite exclusivement de ce second sujet. L’utilisation croissante des algorithmes de prix (que cela soit dans le domaine des transports, des plateformes de marché ou encore dans celui des marchés financiers) est potentiellement porteuse de gains de bien-être dans la mesure où elle permet une meilleure adéquation de l’offre à la demande et où elle accroît la concurrence en renforçant la transparence du marché.

2Cependant, ces gains potentiels pour le consommateur en termes non seulement de prix, mais également de diversité de choix, pourraient être annihilés par des pratiques anticoncurrentielles fondées sur ces mêmes algorithmes.

3Premièrement, ces derniers pourraient être le vecteur d’une différenciation tarifaire permettant d’ajuster le prix proposé à chaque consommateur à sa capacité maximale de paiement. L’entreprise pourrait alors mettre en œuvre une discrimination parfaite. Celle-ci a des effets ambigus en termes concurrentiels. Elle permet un gain net de bien-être. Dans la mesure où le prix peut s’ajuster aux capacités de chaque consommateur, ceux qui peuvent payer plus que le prix théorique de concurrence pure et parfaite sont en mesure de subventionner ceux qui auraient été exclus du marché. Cependant, ce gain collectif ne doit pas occulter le fait que, dans une telle situation, l’offreur est en mesure d’accaparer la totalité du surplus du consommateur. Un transfert de bien-être s’opère au profit de l’acteur doté d’un pouvoir économique. La situation pourrait alors être analysée en termes d’abus d’exploitation. Elle pourrait même être vue sous le prisme du droit de la consommation. En effet, la discrimination repose sur l’absence de transparence tarifaire. Elle peut en outre prendre des modalités non tarifaires sous la forme de pratiques de versioning. Dans une telle situation, les caractéristiques du bien vendu (en termes de qualité ou de performance) sont ajustées à la capacité de paiement de chaque consommateur.

4Deuxièmement, la mise en œuvre de tels algorithmes de prix par des firmes concurrentes peut se traduire par des phénomènes d’ententes. Confier sa politique de prix à des algorithmes peut permettre de stabiliser un accord collusif, voire de conduire à l’émergence d’un équilibre de collusion tacite, en d’autres termes à un possible abus de position dominante collective. La prise en considération de tels risques fait l’objet d’une récente et prolifique littérature académique, mais aussi de préoccupations croissantes des acteurs du droit de la concurrence à l’instar de l’OCDE (2017), de l’Autorité de la concurrence française et du Bundeskartellamt allemand (2016), de la Competition and Markets Authority (CMA) britannique [2], ou encore de l’autorité de la concurrence catalane (2016).

5Cet article s’attache spécifiquement à cette question. Il se propose d’évaluer dans quelle mesure des algorithmes de prix peuvent consolider des accords anticoncurrentiels, si ce n’est conduire spontanément à des équilibres collusifs. Tout d’abord, des équilibres collusifs peuvent être portés par des algorithmes. C’est le cas quand des concurrents confient à un même algorithme la tâche de coordonner leurs comportements de marché [3]. Il en est également de même lorsqu’ils confient leurs décisions en matière de prix à un algorithme développé par une plateforme d’intermédiation électronique qui pourrait permettre de neutraliser la concurrence horizontale [4].

6L’enjeu est plus direct encore quand les algorithmes spécifiques à chaque concurrent sont codés pour jouer le jeu de la concurrence, et quand leurs effets combinés rendent possible et pérenne un équilibre de collusion tacite. Un tel résultat peut émerger quand l’algorithme observe à la perfection l’environnement et ajuste instantanément la stratégie à celle des concurrents. Il peut émerger également au travers de mécanismes d’apprentissage autonome par l’intermédiaire desquels des algorithmes concurrents reposant sur l’intelligence artificielle découvriraient d’eux-mêmes les gains de la collusion tacite et seraient en mesure de mettre en œuvre des représailles immédiates et proportionnées en cas de déviation de l’équilibre collusif. Il serait donc possible que de tels équilibres émergent sans procéder d’une volonté humaine explicite et présentent une stabilité à laquelle des phénomènes de collusion tacite traditionnels ne peuvent a priori prétendre.

7Un tel risque peut justifier de légitimes préoccupations.

8Celles-ci peuvent tout d’abord émerger en regard de la difficulté de caractériser et de sanctionner les phénomènes d’abus de position dominante collective. Les preuves économiques d’un comportement anticoncurrentiel allant au-delà d’un ajustement rationnel aux signaux de marché peuvent s’avérer peu robustes et la caractérisation d’un accord de volontés ou d’une pratique concertée peut être encore plus difficile à apporter dans la mesure où, pour un algorithme utilisant l’intelligence artificielle, le code informatique initial ne peut constituer une preuve d’une stratégie collusive.

9Les préoccupations concurrentielles peuvent également découler des risques de facilitation de l’émergence de tels équilibres. En effet, une collusion tacite suppose a priori un marché étroitement oligopolistique et des concurrents homogènes quant à leurs structures de coûts et leur offre, de façon à permettre la prise de conscience de leur situation d’interdépendance stratégique et l’observation par chacun des comportements des autres. Ces deux conditions pouvaient être difficiles à réunir. Or les algorithmes peuvent faciliter la réalisation de la seconde condition (en accroissant la transparence du marché et en prévenant les erreurs humaines en matière de perception des signaux de marché et de réaction) et rendre possible un tel équilibre sur des marchés avec des acteurs relativement nombreux. Cette seconde caractéristique doit en outre être mise en relation avec des situations de marché de plus en plus marquées par des phénomènes de concentration et par des doutes quant à la réelle contestabilité des marchés dans le cadre de la numérisation croissante de l’économie.

10Le dernier facteur de préoccupation tient au traitement de ces risques par les politiques de concurrence. Celles-ci sont-elles dotées des capacités adéquates pour caractériser et sanctionner ex post de telles situations ? La défense de l’ordre concurrentiel doit-elle passer par d’autres canaux comme des enquêtes sectorielles suivies de procédures d’engagements de la part des acteurs du marché ? La complexité des algorithmes doit-elle conduire à passer d’une approche plus économique à une approche plus technique dans laquelle la mesure des risques concurrentiels passerait plus par des règles de transparence et de redevabilité des algorithmes ? Une éventuelle réglementation devrait-elle mettre en jeu des logiques d’autorégulation de la part des acteurs, que celles-ci passent par des codes de conduite ou qu’elles soient intégrées dès la conception de l’algorithme ? Ainsi, les logiques à l’œuvre peuvent faire écho à celles en jeu dans d’autres domaines du droit, notamment en matière de protection des données personnelles. L’algorithme est susceptible d’être à la fois l’objet et le vecteur de la réglementation.

11Une dernière préoccupation peut être mise en exergue. Elle tient aux possibles divergences d’appréciation qui peuvent apparaître quant aux risques d’ententes fondées sur des algorithmes. Face à des risques non encore avérés et à des dommages éventuels difficiles à mesurer, une intervention trop précoce pourrait priver les consommateurs de gains de bien-être ou plus largement entraver indûment le processus de concurrence. Il n’est pas acquis que la concurrence algorithmique conduise inexorablement à un équilibre collusif et que d’éventuels remèdes concurrentiels ex post ou des réglementations ex ante ne soient pas contre-productifs. Le débat entre faux positifs et faux négatifs en matière de décision concurrentielle (Jakhu et Malik, 2017) et les questions relatives à la déconnexion entre le temps de la politique de la concurrence et celui des marchés numériques doivent alors être pris en compte. Ces dimensions peuvent conduire à des positions divergentes entre des acteurs européens, soucieux de préserver le processus de concurrence, et les autorités américaines plus réticentes à intervenir dans ces conditions [5]. Ces divergences peuvent également porter sur la nécessité de repenser la mise en œuvre des règles de concurrence face aux algorithmes : que l’algorithme soit en lui-même le vecteur de la collusion anticoncurrentielle ou joue le rôle d’un repère permettant de susciter et de stabiliser celle-ci sans échange horizontal, il ne s’agirait en rien de situations inconnues et impossibles à traiter dans le cadre de la pratique décisionnelle actuelle des autorités de concurrence.

12Après avoir rapidement présenté les enjeux possibles de l’intelligence artificielle en économie du droit de la concurrence (1.), cet article s’attache donc à apprécier les dommages concurrentiels qui pourraient découler du fonctionnement des algorithmes de prix qui en procèdent (2.). Il esquisse des pistes de régulation à partir de la littérature académique (3.) et propose en conclusion une discussion quant aux impacts de cette question sur la conception même des politiques de concurrence (4.).

1 – Algorithmes et intelligence artificielle : quels enjeux pour l’économie du droit de la concurrence ?

13L’intelligence artificielle est au centre de nombreuses problématiques touchant l’économie et le droit de la concurrence. Tout d’abord, elle porte un fort potentiel de disruption technologique et concurrentielle (Christensen et al., 2015). Il n’est pas étonnant à ce titre qu’elle soit en première ligne dans les développements stratégiques, les recherches et les diversifications des opérateurs dominants de l’économie numérique. L’intelligence artificielle et ses capacités à rebattre les cartes du jeu concurrentiel constituent l’un des facteurs essentiels du modèle de concurrence élargie qui rend le mieux compte de la stratégie de ces groupes (Porter, 1998 ; Petit, 2016). L’intelligence artificielle et les traitements de données massives, sur lesquels elle repose soulèvent ensuite des questions liées à la protection des données personnelles. Un deuxième terrain est constitué par les enjeux éthiques de l’intelligence artificielle. Un troisième terrain, sur lequel nous reviendrons de façon incidente, tient à la place même du juriste face à l’algorithme à la fois dans son travail quotidien, mais aussi et surtout dans son activité de conseil [6] et de juge (Susskind, 2013 ; McKamey, 2017). L’appui sur l’intelligence artificielle peut, par exemple, se faire en matière de prédiction des risques liés à des décisions individuelles portant sur des mises en détention [7] (Kleinberg et al., 2017). Un quatrième terrain, enfin, particulièrement prometteur, est constitué par les questions de responsabilité, notamment en matière de dommages causés aux tiers.

14Les questions de responsabilité peuvent ouvrir des pistes de réflexion intéressantes pour l’économie du droit. Celles-ci se situent dans l’analyse de certaines des conséquences du fonctionnement des algorithmes sur lesquels repose de façon croissante notre économie et notamment ceux qui sont susceptibles d’intégrer de l’intelligence artificielle. En effet, un champ de recherche émerge quant aux impacts concurrentiels des algorithmes de prix (Stucke et Ezrachi, 2015). Traditionnellement, le droit de la concurrence vise à sanctionner (i.e. à prévenir) deux types de pratiques anticoncurrentielles de nature à porter atteinte aux principes d’une concurrence libre, non faussée et par les mérites [8].

15Des entreprises, dont les politiques de prix reposent sur l’utilisation d’algorithmes, peuvent engager leur responsabilité en regard d’éventuelles violations des règles de marché. De tels risques sont connus en matière de régulation sectorielle. Dans le secteur financier, des abus de marché (sauf forme de manipulation des cours) ont pu être réalisés au travers de tels algorithmes, notamment dans le cadre d’opérations de trading à haute fréquence (Givry, 2015 ; Lenglet et Riva, 2013). Un cas emblématique est constitué par l’affaire Athena Capital Research aux États-Unis, en 2014 [9]. Dans le cas d’espèce, un algorithme avait été codé pour réaliser une manipulation de marché certes classique, mais mise en œuvre à une échelle jusqu’alors inenvisageable techniquement. Il s’agissait de la stratégie du marking the close, permettant que des transactions massives soient effectuées quelques secondes avant la clôture pour impacter ce cours sachant que des transactions étaient prévues pour être réalisées sur ce dernier. Dans le secteur des jeux de hasard et d’argent en ligne, l’agrément délivré aux opérateurs est conditionné à un audit ex ante des algorithmes sous-tendant les jeux, notamment les générateurs de nombres aléatoires [10].

16Des algorithmes peuvent également être les instruments de pratiques anticoncurrentielles, à la fois en matière d’abus de position dominante et d’ententes entre concurrents.

17Dans le domaine des abus de position dominante, des algorithmes ont été mis en cause dans des abus d’éviction. Il s’agit de pratiques unilatérales par lesquelles un opérateur dominant entrave l’accès au marché d’un concurrent potentiel ou évince du marché des concurrents pourtant au moins aussi efficaces que lui en utilisant le levier de sa position de marché. Dans le monde des plateformes électroniques de telles pratiques ont été alléguées dans le cas de moteurs de recherche en ligne qui auraient pu manipuler les résultats de recherche naturels (i.e. procédant des résultats directs de leurs algorithmes) pour faire passer en premier des services aval qui leur sont reliés au détriment de services concurrents. Au-delà de ces abus d’éviction, on doit aussi considérer le cas d’abus d’exploitation. Dans cette seconde situation, l’algorithme sert de base à l’imposition de conditions tarifaires différenciées, sinon discriminatoires, entre les utilisateurs de la plateforme (OCDE, 2016a).

18Par exemple, une plateforme, combinant de grandes masses de données sur ses utilisateurs et un algorithme de prix efficace, pourrait, sous certaines conditions, proposer à chacun de ses consommateurs un prix strictement égal à sa propension marginale à payer et à chaque offreur de services un prix strictement égal à son prix de réservation (en dessous duquel il se retire du marché). Ainsi, la plateforme pourrait maximiser son profit en utilisant son pouvoir de marché pour extorquer la totalité des surplus des consommateurs et des producteurs (Marty, 2017). Le pouvoir de marché procède alors de deux facteurs principaux. Le premier facteur est le caractère d’opérateur crucial qui fait de la plateforme un point d’entrée quasi exclusif pour l’utilisateur (Lynskey, 2017a ; Stucke et Ezrachi, 2017a). Il est consolidé dans l’économie de l’Internet par les effets de réseaux positifs. Le second réside dans l’algorithme et les données sur lesquelles il s’appuie [11]. Le pouvoir de marché est également de source informationnelle.

19Les algorithmes peuvent également être au cœur du second type des pratiques anticoncurrentielles, à savoir les ententes. Il s’agit d’une situation dans laquelle les firmes coordonnent leurs comportements de marché pour maximiser leur profit joint au détriment des consommateurs.

20Un premier type d’entente fonctionnant au travers d’un algorithme nous est donné par un cas américain, Topkins. Il s’agit d’un vendeur de posters sur Amazon Market Place qui a utilisé avec ses concurrents un algorithme de prix leur permettant de s’ajuster instantanément à tout facteur conduisant à des différences entre eux. L’affaire ouverte en avril 2015 par le Département de la Justice américain s’est récemment soldée par un plaider coupable de la part des mis en cause. Au-delà même du fond de l’affaire, la technologie utilisée pour instituer et stabiliser la collusion est l’élément le plus remarquable du cas. Comme le déclara le responsable de la division Antitrust : « We will not tolerate anticompetitive conduct, whether it occurs in a smoke-filled room or over the Internet using complex pricing algorithms. American consumers have the right to a free and fair marketplace online, as well as in brick and mortar businesses[12]. »

21En effet, l’entente montée par Topkins procédait certes d’un agrément entre les firmes concernées, mais reposait exclusivement pour son fonctionnement sur un algorithme de prix. Si s’entendre n’est pas chose réellement aisée entre des firmes possiblement hétérogènes (quand bien même, selon ce qui est devenu un adage, « nos concurrents sont nos amis, ce sont nos clients nos ennemis » [13]), stabiliser un cartel dans le temps est une tâche particulièrement ardue. Il s’agit en effet d’assurer la police du cartel, c’est-à-dire détecter d’éventuelles déviations par rapport à l’accord et être en capacité de les sanctionner de façon suffisamment diligente et proportionnée pour dissuader ses « concurrents » de récidiver sans pour autant déclencher une guerre des prix collectivement sous-optimale. Une entente est intrinsèquement instable. D’une part, chacun de ses membres a intérêt à dévier de l’accord. Si tous les « concurrents » augmentent leurs prix, la stratégie optimale est de réduire les siens d’une façon la plus discrète possible. D’autre part, les déviations sont souvent moins le fruit de trahisons que d’erreurs d’interprétation dans le comportement des autres. En d’autres termes, les participants de l’entente sont bien trop souvent guidés par leurs émotions que par un calcul froid et rationnel… Un algorithme peut présenter de telles qualités (Mehra, 2016 ; Stucke et Ezrachi, 2017b). D’ailleurs, dans la typologie dressée par Stucke et Ezrachi (2015) des collusions basées sur des algorithmes, le modèle de Topkins constitue un premier modèle, celui du messager. Si l’entente passe par des robo-sellers pour sa mise en œuvre, elle repose sur une intention initiale explicite des firmes concernées. Ce cas correspond à une génération d’algorithmes pour lesquels il est encore possible ex post d’entrer dans les lignes de code pour vérifier que celles-ci ont bien été écrites dans l’objectif de colluder. Une sanction concurrentielle est possible. L’algorithme constitue le smoking gun de l’entente, en d’autres termes une preuve matérielle à disposition du juge pour caractériser ex post l’entente.

22Un deuxième cas de bot-led collusion est présent dans la typologie de Stucke et Ezrachi (2015), il s’agit du modèle de hub-and-spoke[14]. Celui-ci consiste en une collusion horizontale dans laquelle les firmes ne communiquent pas directement entre elles, mais partagent des informations par l’intermédiaire d’un tiers dans une position verticale par rapport à elles (Orbach, 2016). Ce tiers peut être une entité économique, telle une association ou un office statistique professionnel, ou plus simplement un dispositif technique, tel un algorithme. Il s’agit donc d’une collusion qui se fonde sur l’adoption d’un même outil par tous les acteurs du marché pour déterminer leurs décisions de prix. L’économie des plateformes se caractérise par des dispositifs qui peuvent évoquer ce cas de figure. En effet, l’algorithme d’appariement entre consommateurs et offreurs de services peut donner lieu à de telles suspicions de réduction artificielle de la concurrence horizontale entre les offreurs. Uber fait par exemple l’objet de telles allégations [15].

23Un cas européen fait écho à un tel modèle hub-and-spoke. Il s’agit du cas Eturas sur lequel la Cour de Justice a eu se prononcer le 21 janvier 2016 (cas C-74-14). Des agences de voyages lituaniennes ont utilisé le même système de réservation que l’une de leurs concurrentes. Ce système de réservation en ligne présentait la caractéristique de procéder à un envoi d’une notification par courriel à l’agence utilisatrice pour tout voyage ayant fait l’objet d’une ristourne de plus de 3 % par rapport au prix catalogue. Il n’y avait pas d’échanges directs entre les concurrents quant à un plafonnement ni d’obligation de respect de ce dernier. Cependant, la programmation de l’algorithme avait pour effet de signaler le point focal de la coordination et d’accroître leur attention (awareness) quant à ce dernier (Heinemann et Gebicka, 2016).

24Il serait également possible de distinguer un autre type de liaison qui pourrait être réalisée au travers d’un algorithme. À l’instar des mécanismes de type hub-and-spoke, elle permet de coordonner les firmes horizontalement sans aucun échange bilatéral direct de leur part. Il s’agit de modèle de signaux. Une firme peut signaler à ses concurrents, par une décision de prix prise unilatéralement, sa volonté d’établir un équilibre collusif. Elle peut, par exemple, accroître son prix au milieu de la nuit, à un moment où cela n’aura pas d’impact sur la demande, pour notifier à ses concurrents sa volonté de s’engager dans une politique de prix qui pourrait être mutuellement profitable si elle est suivie par ces derniers. Une collusion relative aux tarifs aériens reposait sur ce modèle. Elle avait été démantelée aux États-Unis dans les années 1990 [16]. Elle n’avait pas donné lieu à une décision rendue sur une base contentieuse dans la mesure où, comme l’affaire Topkins, elle a trouvé une issue négociée. Chaque compagnie aérienne transmettait quotidiennement ses tarifs à l’Airline Tariff Publishing Company (ATPCO) qui en tirait des informations agrégées sur le marché… y compris sur le prix des billets pour les trajets à venir. Pour le Département de la Justice américain, ce mécanisme permettait d’annoncer les prix futurs et donc d’asseoir un équilibre collusif (OCDE, 2016). La mise en œuvre d’algorithmes de prix suivant en permanence les pratiques des concurrents peut favoriser l’identification de telles offres.

25Des algorithmes de prix peuvent également être codés pour participer à de tels modèles de parallélisme conscients de comportements. Cela peut être le cas quand le prix est révisé en permanence pour s’ajuster, avec une marge donnée, au prix d’un concurrent qui pourrait être, par exemple, l’opérateur principal du marché. Celui-ci jouerait le rôle de chef d’orchestre en fixant un prix à un niveau qui maximiserait le bien-être de l’ensemble des opérateurs présents sur le marché. Ce concurrent pourrait également être une firme barométrique dont la structure de coûts serait représentative de l’ensemble des acteurs.

26Cependant, aucun de ces types d’algorithmes ne repose sur de l’intelligence artificielle [17]. Ce n’est pas le cas des deux derniers modèles de collusion distingués par Stucke et Ezrachi (2015) : l’agent prévisible et celui de la machine autonome. Dans le modèle de l’agent prévisible, chaque compétiteur conçoit un algorithme qui lui est spécifique. Celui-ci est codé pour maximiser son profit. Cependant, l’observation de l’évolution des conditions de marché, et donc des décisions des tiers, est intégrée dans l’algorithme et donne lieu à un ajustement instantané [18]. Si les algorithmes des concurrents fonctionnent selon les mêmes règles, un équilibre ne peut qu’émerger. Le dernier mécanisme repose quant à lui réellement sur de l’intelligence artificielle. Il s’agit du modèle de la machine autonome. Dans ce cas, l’algorithme est toujours conçu pour maximiser le profit individuel en s’ajustant aux décisions des autres, mais il le fait en apprenant des interactions passées.

27Au point de vue de l’économie du droit, l’intérêt de ces derniers modèles est qu’ils mettent en place des équilibres de collusion tacite qui sont particulièrement difficiles à identifier pour des firmes en situation de concurrence et surtout difficiles à maintenir (Ivaldi et al., 2003 ; Marty, 2007). Ce type de collusion a été identifié par Stigler dès 1964. Son atteinte repose sur un ensemble de conditions pour le moins restrictives (Gal, 2017). Les firmes doivent être conscientes de leur situation d’interdépendance stratégique. Elles doivent être en mesure de détecter rapidement les déviations par rapport à un équilibre coopératif (les gains d’une déviation étant d’autant plus élevés que les concurrents n’ajustent pas rapidement leurs prix). Les firmes doivent de plus être en mesure d’exercer les unes vis-à-vis des autres de réelles rétorsions, de façon à ce qu’une firme susceptible de dévier mette en balance un gain de très court terme avec ses conséquences de long terme. Au-delà de ces conditions, il est nécessaire que les entreprises se caractérisent par une forte homogénéité en termes de structures de coûts et d’offre, et que le marché soit protégé par d’efficaces barrières à l’entrée.

28Ces conditions réunies, les firmes peuvent rationnellement et unilatéralement considérer que se livrer à une réelle concurrence peut être excessivement risqué pour tous. À l’inverse, une paix armée ou un modus vivendi mutuellement acceptable peut être un équilibre intéressant sur le long terme. Il peut en résulter des équilibres de collusion tacite dans lesquels les entreprises, après avoir identifié par un processus d’essais et d’erreurs un point d’équilibre concurrentiel stable et satisfaisant, décident chacune de leur côté de ne pas s’en écarter sans qu’il soit besoin de se concerter et d’expliciter l’accord [19]. Cette situation de position dominante collective est particulièrement difficile, sinon impossible, à sanctionner par les règles de concurrence (Petit, 2013). Seul un parallélisme des comportements apparaît, mais il est difficile de le qualifier à lui seul d’anticoncurrentiel… d’autant qu’il n’existe, et pour cause, aucun élément matériel venant apporter la preuve d’un accord de volontés.

29Comme le relevait Ohlausen (2017), ces pratiques ne sont guère inédites. Dans la pratique décisionnelle européenne, les risques d’un tel équilibre collusif avaient été mis en évidence dans le projet de fusion Airtours/First Choice et avaient conduit à l’annulation par le Tribunal de première instance de la décision de la Commission du 22 septembre 1999 qui avait déclaré le projet incompatible avec le marché commun [20]. Cependant, ces équilibres étaient rares et précaires. Le risque est que les algorithmes, notamment basés sur l’intelligence artificielle, facilitent leur émergence et renforcent leur stabilité. L’identification du point focal serait bien plus rapide, les risques d’erreurs dans les stratégies des firmes ou dans leur compréhension de la stratégie de leurs concurrentes seraient minimisés et la possibilité de mesures de rétorsion pourrait être immédiate.

30Un tel risque a pu être caractérisé d’un point de vue théorique par Salcedo (2015). Dans son modèle, les spécifications des algorithmes ne rendent pas seulement l’émergence d’un équilibre collusif possible, mais surtout inexorable. Pour partie, cet effet repose sur une stratégie de signal. Si la firme permet à ses concurrents de décoder au travers des itérations son algorithme, elle rend possible une révision en réponse des algorithmes concurrents. Dans la mesure où modifier son algorithme prend du temps, la transparence qu’elle accepte joue comme un engagement pour s’engager dans une collusion tacite. Celle-ci émergera non plus comme une possibilité (Tennenholtz, 2004), mais comme un résultat inexorable et stable des interactions [21].

31Il est au demeurant possible de s’interroger sur la réalité du risque décrit supra. Tout d’abord, les entreprises actives sur les marchés en ligne utilisent-elles effectivement de tels algorithmes de prix et ces derniers reposent-ils le cas échéant sur des technologies liées à l’intelligence artificielle ? Dans le rapport d’enquête sectorielle sur le e-commerce, la Commission européenne (2017) relève que 50 % des opérateurs suivent les prix en ligne des concurrents et que 78 % de ces derniers utilisent pour ce faire des algorithmes spécialisés (spiders). Ce suivi se fait à un niveau de rapidité, de couverture et de granularité jusqu’ici inconnu. 8 % des firmes concernées ajustent automatiquement leurs prix par l’intervention d’algorithmes sans décision humaine. Comme le note la Commission, certains de ces algorithmes sont programmés pour établir les prix à un niveau donné, par exemple 1 % en dessous de celui du concurrent le moins cher. La crainte exprimée par la Commission (2016) était notamment qu’au-delà de leurs effets en termes de restrictions verticales de concurrence, cette supervision automatisée des prix et cet ajustement automatique ne contribuent à établir un équilibre de collusion tacite non seulement plus rapidement, mais également plus durablement (§ 608, p. 176).

32L’avantage des algorithmes basés sur l’intelligence artificielle tient au fait qu’ils identifient d’eux-mêmes très rapidement cet équilibre mutuellement efficient et qu’ils permettent de le pérenniser efficacement en ne commettant aucune erreur humaine dans leurs décisions (Kahneman, 2012). Il convient en outre d’insister sur le fait qu’au-delà de l’immunisation par rapport aux biais humains [sur-réaction liée à la colère ou à la déception, aversion irrationnelle à la perte (sunk cost fallacy), effets de cadrage des décisions (framing effects)…], la médiatisation des décisions par un algorithme est un élément additionnel, mais particulièrement important en matière de stabilisation des équilibres collusifs (Stucke et Ezrachi, 2016). Cette décision algorithmique joue aussi défavorablement sur l’efficacité de la sanction concurrentielle dans son volet dissuasif. En effet, à l’inverse d’un humain, un algorithme ne peut connaître la crainte d’une sanction individuelle, que celle-ci soit financière ou qu’elle soit surtout accompagnée d’une peine privative de liberté, comme c’est le cas aux États-Unis. La propension à recourir aux programmes de clémence individuels tient très significativement à ces risques. Elle ne peut être comparable pour un algorithme. De fait, la place des algorithmes dans la mise en œuvre (ou dans l’initiation) d’une collusion pose des questions sur l’aspect dissuasif des sanctions concurrentielles. Dans sa communication de mai 2017, la présidente de la FTC, M. Ohlausen, insiste sur le fait que l’algorithme ne fait souvent que remplacer un humain.

33Une telle substitution peut avoir quelques conséquences en termes d’efficacité de la sanction concurrentielle. Il est possible de faire une analogie avec les ententes horizontales dont le fonctionnement repose sur un tiers, par exemple dans une logique de type hub-and-spoke. L’affaire Eturas met en jeu ce modèle. L’entité permettant de stabiliser une collusion horizontale n’est pas un acteur du marché, mais un tiers. Elle joue le rôle de facilitateur de l’entente et est, à ce titre, son maillon essentiel. Sa responsabilité peut alors être engagée au sens de l’article 101 du TFUE [22] quand bien même elle n’opère pas sur le marché pertinent, mais sur un marché amont. Si la collusion procède d’un algorithme autonome, il est possible de s’interroger sur la prise en compte de l’aspect dissuasif du risque de sanction concurrentielle sur ses choix. Il serait a priori possible d’intégrer le coût d’une éventuelle sanction concurrentielle dans le calibrage initial de l’algorithme. Cela ne pose guère de problème logique dans la mesure où des logiciels reposant sur l’intelligence artificielle sont commercialisés pour l’analyse de la jurisprudence.

34Il n’est pas cependant évident qu’un algorithme réagisse comme une personne physique à ce risque. En effet, il convient de considérer le comportement d’une firme comme résultant d’une articulation de différentes relations d’agence au sens économique du terme. La firme est un agent pour une autorité de concurrence. En tant que principal, elle doit au travers de la menace de sanctions l’inciter à se comporter conformément aux règles de concurrence. Cependant, une même relation d’agence peut se faire jour entre l’actionnaire et le manager. Faire peser la sanction concurrentielle sur l’entreprise incite les actionnaires à exercer un contrôle effectif sur les pratiques des dirigeants et donc à prévenir les risques de violation des règles de concurrence (Baysinger, 1991). Un débat existe néanmoins en matière d’économie du droit. Est-il plus efficace de faire porter la sanction sur les dirigeants ? La réponse est souvent tranchée en ce sens par la littérature économique (Garoupa, 2000). Les managers présentent une plus forte aversion au risque que les actionnaires (qui peuvent dans l’absolu diversifier le risque entre plusieurs entreprises) [23].

35Faire reposer la collusion sur un algorithme permettrait de réduire l’effet dissuasif dans le domaine de la politique de concurrence. Nul algorithme ne saurait demander à bénéficier d’un programme de clémence individuel (Aubert et al., 2006). Il reste cependant à s’attacher aux répercussions sur la responsabilité des entreprises, ce que nous envisagerons infra.

36Les algorithmes posent d’autant plus de problèmes au juge de la concurrence qu’ils ne sont pas codés pour former des équilibres collusifs, et ne font in fine que s’ajuster rationnellement aux signaux de marché. Nous allons donc dans les deux sections suivantes préciser le mode de fonctionnement de ces algorithmes et considérer les moyens qui pourraient permettre de prévenir les dommages concurrentiels liés à leur fonctionnement ou du moins conduire à sanctionner les opérateurs dont les algorithmes conduiraient à un dommage concurrentiel. Cependant, il convient de relever un ensemble de facteurs pouvant mettre en cause ce scénario d’émergence et de stabilité des équilibres collusifs.

37Premièrement, s’il est vrai que le marché des plateformes d’intermédiation électronique se prête bien à de tels scenarii (forte concentration et existence éventuelle de barrières à l’entrée significatives au travers des données et des algorithmes utilisés), il peut symétriquement être considéré que les firmes peuvent également se faire concurrence au travers de leurs algorithmes qui n’ont pas de raison inexorable de converger en l’état actuel des connaissances sur l’intelligence artificielle. Non seulement la concurrence peut se faire au travers des algorithmes, mais les firmes elles-mêmes conservent leurs caractéristiques hétérogènes (Petit, 2017b).

38Deuxièmement, l’autre effet des algorithmes de prix est de conduire à une discrimination tarifaire et à une personnalisation des offres pour chaque consommateur en fonction des données que détient spécifiquement la firme sur lui et sur son comportement d’achat. Les prix peuvent en outre être modifiés pour déclencher un éventuel acte d’achat. Il s’ensuit indubitablement un bruit rendant significativement difficile la lisibilité des stratégies des concurrents et l’adaptation immédiate à ces dernières (Petit, 2017b). Concilier les scenarii de la discrimination parfaite et de la collusion tacite est théoriquement possible (Ezrachi et Stucke, 2017b). Il s’agirait de stratégies hybrides fondées sur une différenciation en fonction des profils de consommateurs. La possibilité réelle de mettre en œuvre une telle stratégie peut néanmoins être interrogée en l’état actuel des connaissances sur les capacités des algorithmes.

39Troisièmement, la collusion risque d’être d’autant plus instable que les consommateurs eux-mêmes peuvent mettre en œuvre des algorithmes comparables renforçant la transparence du marché et étant potentiellement, comme nous le verrons infra, susceptibles de déstabiliser le fonctionnement des algorithmes des firmes (Petrikaite, 2016).

2 – Intelligence artificielle, dommages et responsabilité : application aux algorithmes de prix

40L’utilisation de données massives (Big Data[24]), l’accroissement de la puissance de calcul des ordinateurs et les algorithmes utilisant l’intelligence artificielle permettent d’atteindre plus aisément et plus rapidement des équilibres de collusion tacite et garantissent une meilleure stabilité de ces derniers.

41En termes économiques, les Big Data se caractérisent par la notion des 4V. Il s’agit du volume des données traitées, de leur variété, de leur vitesse de traitement et enfin de leur valeur. Le volume de données disponibles et leurs possibilités de traitement suivent une évolution se rapprochant de la loi de Moore. Les dimensions économiques des Big Data doivent être également comprises en regard de la baisse du coût de la collecte, du stockage et du traitement de ces données (OCDE, 2016b).

42Il convient en outre de relever que l’intelligence artificielle ne constitue en rien une nouveauté et que les premiers travaux réalisés remontent aux années 1950 [25]. L’insuffisance des capacités de calcul avait été l’un des facteurs expliquant le sac et le ressac des espoirs placés dans cette approche au fil des décennies. En effet, plusieurs hivers de l’IA ont pu être décrits. Le modèle actuel tire ses racines des travaux menés dans les années 1980 dans le cadre de l’approche connexionniste. Celle-ci permet de développer des architectures logicielles sur le modèle des réseaux neuronaux. Le deep learning repose en effet sur un réseau de type neuronal dans lequel l’activation, la mise en sommeil ou la création de nouvelles connexions dépend de l’apprentissage même réalisé par l’algorithme (Jones, 2014 ; Cuéllar, 2016). Il s’agit de fonctions mathématiques à paramètres ajustables. Après une première phase d’apprentissage à partir de vastes échantillons de données pour faire un premier calibrage [26], la sédimentation des données accumulées au cours du fonctionnement suscite des stimuli qui vont conduire à une évolution autonome de l’algorithme et de ses paramètres. Ceux-ci évoluent en regard d’un critère, celui de la qualité des prédictions qu’ils permettent à partir du stock de données disponibles. Il s’agit de la seconde phase de l’apprentissage, celle-ci non supervisée, qui va se faire par renforcement. Alors que la première permettait des ajustements à partir d’un tableau entrées-sorties prédéfini pour contrôler sa capacité prédictive, celle-ci conduit l’algorithme à modifier lui-même au fil de son apprentissage ce cadre pour sélectionner la structure permettant d’obtenir les prévisions les plus fiables sans qu’il soit possible d’expliquer les raisons de ses choix.

43Il convient également de prendre en considération la capacité croissante des algorithmes à prévoir des événements futurs à partir des données actuelles, et ce de façon instantanée. Il s’agit par exemple de la notion de now-casting. Une recherche en ligne sur la grippe annonce une épidémie avant même que les médecins soient consultés et donc que le système de santé soit informé du phénomène [27]. Ce processus est à la base d’un avantage informationnel (et donc stratégique) décisif pour les opérateurs en place par rapport aux nouveaux entrants dans le cadre de problématiques reliées au verrouillage des marchés (Stucke et Grunes, 2016). Il peut également avoir une forte importance en matière de maintien d’un équilibre collusif. En effet, chaque membre de l’oligopole peut être en position de détecter très en amont les signaux faibles de la déviation. En d’autres termes, la capacité à détecter immédiatement les indicateurs avancés d’un comportement « hostile » d’un concurrent peut assurer une efficace police du cartel. Il convient en effet de croiser cette capacité de détection avec la possibilité de modification des prix en temps réel via l’algorithme. Le bénéfice lié à la déviation est instantanément annulé par l’ajustement des prix des concurrents et les rétorsions sont immédiates. L’équilibre collusif est donc bien plus stable que s’il était construit au travers d’interactions humaines.

44Ce processus de now-casting s’intègre dans une logique de predictive analysis[28]. L’algorithme peut non seulement suivre les prix des concurrents, mais également identifier des patterns en termes de prix et de décisions de marché. Cela revient en d’autres termes à superviser l’ensemble du comportement des concurrents pour observer si ces derniers mettent effectivement en œuvre une convention donnée de marché. Nous retrouvons ici à nouveau l’approche conventionnaliste qui va définir la convention comme un système d’attentes réciproques sur le comportement de chacun [29]. L’algorithme va essayer de repérer, bien plus vite et plus efficacement qu’un agent humain, si les décisions des tiers annoncent effectivement un craquement ou un signe avant-coureur d’une éventuelle rupture de convention. Les algorithmes sont capables de combiner données historiques, données en temps réel, observations des comportements des tiers pour évaluer ce qui peut se passer sur le marché au cours des prochains mois, semaines, voire des prochaines heures (Moore-Coyler, 2016). En d’autres termes, les données ne sont plus seulement un instrument pour refléter les conditions de marché, mais pour les prédire. C’est en ce sens que Stucke et Grunes (2016) relient consubstantiellement les notions de Big Data et de Big Analytics. Cette analyse s’appuie désormais sur des systèmes d’intelligence artificielle dont la principale caractéristique est leur aptitude à mettre en œuvre des capacités d’apprentissage autonome.

45Comme nous l’avons vu, au travers des méthodes d’apprentissage et d’acquisition automatiques de nouvelles connaissances à partir des nouvelles observations, notamment celle des interactions passées (machine learning), l’algorithme modifie de lui-même son code et ses paramètres pour tenir compte de son apprentissage (Surden, 2014). La spécificité de ces algorithmes tient à leur capacité à s’autonomiser de leur codage initial via l’expérience qu’ils accumulent au travers des interactions de marché. Ainsi, il est impossible de caractériser une intention anticoncurrentielle à partir des lignes de code initiales. L’objectif de maximisation du profit est difficile à considérer comme anticoncurrentiel per se.

46L’algorithme est toujours conçu pour maximiser le profit individuel en s’ajustant aux décisions des autres, mais le faisant en apprenant des interactions passées, il pourrait conduire à un équilibre de maximisation du profit joint. Il convergera de ce fait progressivement, mais bien plus rapidement que si les décisions étaient prises par des humains, avec les algorithmes des concurrents, vers le point focal d’une collusion tacite. Il n’y a ni accord entre concurrents ni intention dans la mesure où le code initial est calé sur une logique unilatérale non coopérative. Les algorithmes sont programmés pour maximiser le profit individuel (pas d’intention du programmeur en jeu) et ils opèrent indépendamment les uns des autres (donc pas de possibilité de mettre en évidence une action coordonnée). Dans un tel cas, on spécifie un objectif à l’algorithme et il détermine lui-même les moyens les plus efficaces pour parvenir à cette fin non seulement à partir de son codage initial et du stock d’informations dont on l’a doté, mais également à partir des données qu’il va accumuler à partir de ses observations du comportement des tiers sur le marché et de ses interactions avec ces derniers. Le codage lui-même va évoluer au travers de ce mécanisme d’apprentissage sans intervention explicite et finalisée d’un développeur.

47Comme nous l’avons noté, les logiques de deep learning et de reinforcement learning peuvent être à l’origine de cet équilibre collusif. Le deep learning permet d’analyser de très grandes quantités de données, mais également de mettre en œuvre des backpropagation algorithms permettant à une machine de corriger d’elle-même ses paramètres internes pour améliorer sa performance (Le Cun et al., 2015). L’apprentissage par renforcement (reinforcement learning) désigne le fait d’apprendre, au travers de différentes expériences et d’observations successives, quelle est la stratégie optimale à mettre en œuvre pour maximiser sa fonction objective. C’est cette caractéristique qui permet à l’algorithme d’apprendre de ses propres erreurs et donc de les corriger de lui-même dans les interactions suivantes.

48Les algorithmes de types neuronaux ou génétiques se distinguent ainsi des algorithmes classiques en ce que leurs codes ne sont pas figés par le développeur. La logique conséquentialiste/déductive s’efface donc devant un fonctionnement plus proche de celui du cerveau humain dans lequel des connexions sont affectées de poids différenciés et évolutifs dans le temps au fil des interactions, sont mises en sommeil, réactivées, voire créées. L’ensemble s’autocalibre et s’ajuste constamment en fonction des retours d’expériences. L’algorithme ne fonctionne plus sur la base d’un code figé, de nature déductive, mais au travers de routines évolutives, s’autorenforçant ou se corrigeant de façon plus inductive. L’algorithme est dès lors apte à développer et à traiter des connaissances tacites (Cuéllar, 2016). Il est à noter au passage que cette capacité peut conduire à reconsidérer la distinction entre l’information (objective et transférable) et la connaissance au sens de Hayek (1945), laquelle est spécifique à l’agent et aux circonstances de temps et de lieu. L’algorithme peut non seulement se substituer au « statisticien », mais également au man on the spot. L’algorithme agit comme le ferait un membre expérimenté de l’oligopole, mais de façon quasi instantanée, sans avoir besoin d’échanger en interne ou avec les tiers, sans erreur de jugement et sans traçabilité.

49En effet, la stratégie dominante – même s’il s’agit d’une collusion tacite – n’a pas besoin d’être programmée. L’algorithme va la découvrir seul et peut même la mettre en œuvre spontanément sans que l’entreprise l’ait décidé ou en ait eu, dans une certaine mesure, conscience. Ezrachi et Stucke (2017a) montrent à partir de l’exemple de Deep Mind, algorithme développé par Google, que l’algorithme décide, en fonction des circonstances et des paramètres de la situation, d’opter pour des stratégies coopératives ou des stratégies non coopératives vis-à-vis des algorithmes avec lesquels il est mis en interaction. Une coopération peut émerger si elle permet de maximiser le profit joint, ce qui est exactement la situation de la collusion tacite.

50Comme le soulignent Ezrachi et Stucke (2017a), les algorithmes reposant sur l’intelligence artificielle seront particulièrement difficiles à analyser par les autorités de concurrence. Ils reposent sur des architectures comparables à des réseaux neuronaux composés de nombreuses interconnexions [30]. Comme le circuit décisionnel sera très difficile, sinon impossible, à suivre et à retracer, la caractérisation d’une intention anticoncurrentielle dans le cadre d’une enquête ex post sera particulièrement délicate à réaliser. L’algorithme risque donc de se muer en une boîte noire quasi inexploitable (Castelvecchi, 2016). Comme l’indique Cuéllar (2016), « one limitation of neural networks is the inability to glean much of a (tractable or logical) explanation for why a decision was taken ». Cette caractéristique posera un problème en termes de redevabilité. L’intelligence artificielle ne met pas en exergue des causalités ; elle ne permet que de formuler des prédictions. La raison pour laquelle une décision de prix est prise ne peut être mise en évidence (Kleinberg et al., 2015). Le fonctionnement de l’algorithme le conduit à modifier ses paramètres en fonction des données et à réaliser un ajustement de ces derniers, en d’autres termes à réaliser un ensemble d’approximations visant seulement à améliorer la qualité de ses prédictions. La compréhension ex post de son processus de raisonnement interne et donc l’explication des décisions en termes de finalité seront particulièrement difficiles (Pavel et Serris, 2016).

51Il est à noter que les difficultés induites par la caractérisation d’équilibres collusifs résultant de tels algorithmes sont, de ce fait, bien plus significatives que celles qui caractérisent le contrôle des opérations de trading à haute fréquence. En effet, les changements constants dans la structure des algorithmes, l’intégration continue de nouvelles données et l’absence de possibilité de mettre en évidence des liens de causalité dans les décisions complexifient les analyses approfondies ex post, comme cela est le cas en matière de régulation financière [31].

3 – Quelles réponses aux défis posés par l’intelligence artificielle au concurrentialiste ?

52Le cas des ententes basées sur des algorithmes utilisant l’intelligence artificielle ne peut donc pas donner aisément lieu à une sanction sur la base de l’intention anticoncurrentielle. L’autorité en charge de l’application des règles de concurrence ne peut guère plus s’appuyer sur des éléments de preuve matériels. Une approche par les effets est indubitablement plus raisonnable. Elle n’est pas pour autant aisée. En effet, caractériser des prix comme excessifs suppose de disposer d’un élément de comparaison… Or les prix de tous les concurrents évoluent dans le même sens. Le parallélisme de comportement n’est pas de plus sanctionné en lui-même. Il faudrait démontrer ex post que les firmes font évoluer leurs prix de conserve en fonction de chocs qui les atteindraient de façon différenciée du fait, par exemple, de structures de coûts et de stratégies différentes. Le problème est que ces équilibres se produisent dans des branches étroitement oligopolistiques où les structures de coûts sont souvent homogènes.

53De plus, certains des outils utilisés par les autorités de concurrence pour détecter l’émergence d’équilibres collusifs, dans le cadre d’une supervision ex post des marchés [via un screening, voir Harrington (2008) et Marmer et al. (2016)], deviennent inopérants dans la mesure où il n’existe plus de décisions explicites d’ajustement [32]. Il convient en effet de noter que les violations des règles de concurrence liées à des décisions de machines autonomes posent un problème de redevabilité (au sens de l’accountability). Non seulement les développeurs ne programment pas l’algorithme pour qu’il collude, mais la nature même de ses règles d’évolution peut rendre difficile l’explication ex post de son fonctionnement [33]. Le problème est que les entreprises doivent auto-évaluer la conformité de leurs pratiques avec les règles de concurrence [34]. Elles ne peuvent ici en aucun cas apporter l’assurance tant ex ante qu’ex post que la résultante des règles de fonctionnement de leurs algorithmes ne sera pas un équilibre de collusion tacite.

54Plusieurs voies sont possibles afin de maîtriser les risques décrits supra.

55Une première voie est celle d’une régulation ex ante des algorithmes complétée par des analyses approfondies ex post telles celles réalisées dans le cadre d’enquêtes sectorielles (Ezrachi et Stucke, 2017b). La solution proposée repose sur des expérimentations réalisées dans le cadre d’un incubateur de collusion algorithmique. Il s’agit de procédures de tests des algorithmes utilisés par les firmes concurrentes afin d’évaluer leurs propensions à induire des équilibres collusifs en fonction des différentes situations de marché. Cette méthode connaît bien évidemment des limites : elle demeure statique et ne permet pas de rendre compte des effets du machine learning. Elle permet cependant à l’autorité de tester les comportements des algorithmes dans certaines des conditions les plus susceptibles de porter préjudice à la concurrence, un peu dans la logique des stress tests bancaires. Ces tests peuvent également déboucher sur des modifications à apporter ex ante aux algorithmes pour réduire préventivement leurs capacités collusives. Un premier type de tests peut être réalisé au travers d’une décélération des ajustements de prix. L’impossibilité de réagir instantanément aux réactions des concurrents entrave l’émergence d’un équilibre de collusion tacite et compromet sa stabilité. Le jeu sur les délais de réponse peut ouvrir un espace à des stratégies disruptives portées par des concurrents de type mavericks. Un deuxième type de tests (et donc de mesures correctives potentielles) pourrait tenir à des altérations de la transparence des marchés et à l’utilisation d’autres algorithmes comme contre-mesures. Il pourrait par exemple s’agir de permettre aux consommateurs d’utiliser des algorithmes de comparaison de prix tout en réduisant la capacité des algorithmes des firmes à capturer instantanément cette information.

56L’approche décrite supra a également été préconisée dans le cadre des rapports remis au comité de la Chambre des Lords britannique sur l’économie des plateformes [35]. Face à l’impossibilité ex post de faire rendre des comptes sur le fonctionnement de l’algorithme, un ensemble d’expérimentations pourraient être utilisées. Un premier ensemble pourrait résider en un contrôle des possibles biais par le recours à des simulations sur des données réelles. Un second ensemble de contrôles pourrait porter sur l’évaluation des phénomènes de renforcement dans les effets d’apprentissages des logiciels. Cela peut notamment être déterminant dès lors que les algorithmes se fondent sur des corrélations et risquent par leur fonctionnement même de les renforcer. En effet, un des risques classiques des algorithmes est qu’ils confirment et amplifient des discriminations sociales non seulement sur la base de leur code initial, mais aussi et surtout au travers des interactions avec les tiers et la prise en compte des préjugés de ces derniers dans leur propre processus de décision. L’exemple des discriminations raciales en matière de fixation des prix pour des hébergements chez des particuliers est un cas désormais archétypal. Le risque est donc que les algorithmes amplifient les phénomènes seulement en prenant en compte des corrélations dans les comportements des autres acteurs, quels que soient leur bien-fondé et leur origine (Wilbanks et Topol, 2016). Seul un transfert des codes et des bases de données à un tiers indépendant pour des simulations peut permettre de découvrir la possibilité de tels biais.

57La démarche suivie par Chen et al. (2016) peut apporter un bon exemple d’audit quant à la formation des prix sur une plateforme. Ceux-ci évaluent ex post l’impact des algorithmes de prix sur la place de marché en ligne d’Amazon. Leur analyse porte sur les 1 641 produits les plus vendus et sur 500 vendeurs utilisant des algorithmes de prix (dont Amazon elle-même). Ils démontrent que les vendeurs « algorithmiques » enregistrent des performances supérieures à leurs homologues « humains ». Leur gamme de produits est plus étroite, mais leurs retours financiers sont supérieurs. Cependant, la volatilité des prix pour ces vendeurs est significativement supérieure (plusieurs dizaines, voire plusieurs centaines, de changements de prix dans la journée). Ils montrent que ce différentiel de performance constitue un puissant inducteur d’automatisation pour l’ensemble des vendeurs de la place de marché. Pour autant, ils constatent également qu’une « increasing automation opens the door to intentional and unintentional market distortions » et plaident en conséquence pour une supervision des algorithmes par un tiers [36].

58Il est à noter que cette approche fait écho aux analyses développées par Nicolas Petit (2017a) quant à la régulation des risques induits par l’intelligence artificielle. Lorsque les externalités produites par ces systèmes peuvent être circonscrites, la meilleure solution réside dans l’activation de règles de responsabilité ex post. À l’inverse, lorsque celles-ci peuvent revêtir des dimensions systémiques, la solution d’une réglementation ex ante est préférable. Si cet équilibre est somme toute très classique en regard des prescriptions de l’économie du droit en matière de régime de responsabilité pour risque, les préconisations faites se caractérisent quant aux modalités mêmes de la régulation qui passent également par des logiques de tests et d’expérimentations.

59Une deuxième voie, moins coûteuse, tiendrait à un critère de type no-fault monopoly. Il s’agirait alors de ne faire porter le contrôle ex post que sur le seul effet des pratiques. Un problème doit cependant être pris en considération. Un tel critère pourrait être particulièrement coûteux en termes d’efficience économique. En effet, si les algorithmes sont programmés et conçus pour être efficaces, introduire une telle règle de responsabilité sans faute reviendrait à prescrire à ces derniers de « se programmer » pour être sous-efficients.

60Une troisième voie passerait par un appui sur des règles de responsabilité sur la base de la réparation d’un éventuel dommage concurrentiel du fait de la mise en œuvre des algorithmes. Plusieurs régimes de responsabilité peuvent être envisagés (European Commission, 2017). Un premier est une responsabilité de plein droit [37] ; un deuxième tient à une responsabilité basée sur une règle de production du risque (l’acteur dont le comportement est le plus inducteur de risque est responsable) ; un troisième tient à une règle de gestion des risques (celui qui peut gérer le risque au moindre coût est responsable. La prise de position de la Commissaire européenne, M. Verstager (2017), conforte ces approches : « competition enforcers need to be suspicious of everyone who uses an automated system for pricing. […] Businesses […] need to know that when they decided to use an automated system they will be held responsible for what it does, so they had better to know how that system works. »

61La réflexion sur les règles de responsabilité s’inscrit dans les développements présentés supra quant à la répartition des incitations entre actionnaires et managers en matière de prévention des comportements anticoncurrentiels. Si l’algorithme est considéré comme pleinement autonome, la responsabilité doit peser sur la firme et donc sur l’actionnaire. Reste à déterminer si le régime optimal est une responsabilité de plein droit ou un régime de responsabilité pour faute (si un standard de précaution adéquat n’a pas été mis en œuvre).

62Ce second régime peut présenter l’intérêt de mettre en place les procédures d’évaluation préalable des risques envisagées supra. Le modèle européen de la GDPR (General Data Protection Regulation) mise en œuvre pour les données personnelles pourrait servir de base (Spiecker gen. Döhmann, 2017) avec des règles de privacy by design (articles 24.1 et 25). Des logiques de compliance by design permettent de reporter la charge de la prévention du dommage sur les firmes et donc de mettre en jeu des règles de responsabilité de plein droit.

63Les firmes pourraient prévenir le risque en sous-optimisant le système (maximiser sous contrainte de ne pas exclure un concurrent ou de ne pas colluder). Elles pourraient être considérées comme les agents qui peuvent prévenir le risque au moindre coût. Mais elles devraient en outre prendre en considération les impacts, même non recherchés, que pourraient avoir leurs algorithmes sur le marché. Le développeur lui-même devrait prendre en considération la possibilité de dommages concurrentiels qui pourraient résulter du fonctionnement de l’algorithme sans que la finalité de ce dernier soit un élément pertinent.

64La conscience de ce risque pourrait servir de substitut au critère de l’intention stricto sensu (Gal et Elkin-Koren, 2017). Il s’agit d’une question essentielle liée à la divergence entre une approche juridique, basée sur une logique téléologique (la finalité de l’action), et une approche technique de nature ontologique, basée sur ce que la technologie est (Chopra et White, 2011 ; Petit, 2017a). Il s’agit somme toute de ne pas évaluer le programme en regard de sa finalité, en d’autres termes d’un lien de causalité, mais à l’aune des choix qu’il réalise in concreto.

65La difficulté est donc de dirimer, comme cela est toujours le cas en matière de collusion tacite, entre comportement rationnel unilatéral – qui est conforme aux règles de concurrence – et stratégie coordonnée. Le cas Eturas est à nouveau particulièrement riche d’enseignements. Il est d’abord à noter que les cadres américains et européens se distinguent par leurs critères. Le premier repose sur la notion d’accord anticoncurrentiel, le second sur celui de pratiques concertées. La caractérisation d’une pratique concertée peut reposer sur la mise en évidence d’un concours des volontés même sans échanges directs. Comme l’a souligné le Tribunal dans son arrêt Total Raffinage Marketing[38] : « […] l’article 81, paragraphe 1, CE s’oppose à toute prise de contact directe ou indirecte entre des opérateurs économiques de nature à soit influer sur le comportement sur le marché d’un concurrent actuel ou potentiel, soit dévoiler à un tel concurrent le comportement que l’opérateur économique concerné est décidé à tenir lui-même sur le marché ou qu’il envisage d’adopter, lorsque ses contacts ont pour objet ou pour effet de restreindre la concurrence » [39]. La Commission n’a en outre pas à apporter la preuve de communications directes entre les firmes. Ainsi, « l’existence d’une pratique ou d’un accord anticoncurrentiel peut donc être inférée d’un certain nombre de coïncidences et d’indices qui, considérés ensemble, peuvent constituer, en l’absence d’une autre explication cohérente, la preuve d’une violation des règles de la concurrence » (pt. 47).

66L’intérêt de l’arrêt Eturas est de montrer qu’un algorithme peut être le support de la caractérisation d’un tel concours des volontés. Comme nous l’avons vu supra, la collusion reposait dans ce cas non pas sur des échanges périodiques dans des salles enfumées (Hammond, 2005), mais sur des envois automatiques de courriels quand des remises de plus de 3 % (susceptibles de recréer une concurrence en prix) étaient accordées. Le modèle de hub-and-spoke utilisé a pour logique d’éviter les échanges horizontaux. Cependant, les signaux envoyés par l’algorithme font que les agences avaient ou devaient nécessairement en avoir connaissance (pt. 38 de l’arrêt du 21 janvier 2016, cité supra). Utiliser l’algorithme revient pour la Cour de justice à acquiescer tacitement à une pratique anticoncurrentielle commune (pt. 44).

67La notion de connaissance (dans le sens de conscience ou en anglais d’awareness) est particulièrement importante pour notre propos en termes de responsabilité induite par la mise en œuvre d’algorithmes de prix (Heinemann et Gebicka, 2016). Elle montre que des firmes utilisant des logiciels susceptibles de générer ou de stabiliser une collusion peuvent être sanctionnées pour pratiques anticoncurrentielles. En d’autres termes, un cartel par les algorithmes est traité comme un cartel entre entreprises. Dans le cas d’espèce, la délégation des décisions de prix à un seul logiciel par plusieurs concurrents est traitée comme une présomption (réfragable) de participation à une pratique concertée. Cependant, l’algorithme a ici une logique aisément interprétable : il s’agit de signaler toute pratique de prix au-delà d’un seuil implicitement accepté par les concurrents. Les choses pourraient être plus difficiles à caractériser pour une collusion tacite à laquelle parviendraient plusieurs algorithmes différents dont les codes évolueraient de façon autonome… Il conviendrait alors de considérer que confier à un algorithme (dont on ne peut expliquer les choix) sa politique de prix revient à acquiescer à une possible collusion dont on ne saurait raisonnablement prévoir le risque de réalisation. L’absence de mesures préventives insérées dans le code initial pourrait être conçue comme un plus factor dans la caractérisation d’une volonté de colluder (Gal, 2017). Une solution pourrait être d’insérer ex ante de telles clauses de coordination by design et de transférer ex post aux entreprises conceptrices et utilisatrices la charge de la preuve de la conformité du fonctionnement de leur algorithme aux règles de concurrence (Ezrachi et Stucke, 2017b).

4 – Conclusion

68L’utilisation de nouveaux outils peut parfois conduire à des résultats sous-optimaux. Le moins grave est encore l’effet diligence[40], c’est-à-dire leur mise en œuvre dans des conditions se rapprochant le plus possible (pour un temps) des modèles passés. Le deuxième risque (Christensen, 1997) est de sous-utiliser l’innovation en la transformant en innovation incrémentale (faire les choses comme jadis, mais plus efficacement) et non pas comme une innovation de rupture (repenser ses modes d’action). Le troisième risque est de réguler l’innovation avec les anciens outils. Cela risque de pénaliser excessivement la création de richesse, en suscitant des incertitudes juridiques susceptibles de dissuader les innovateurs et les investisseurs (Balkin, 2015), ou cela peut au contraire ne pas conduire à responsabiliser ces derniers contre les dommages qu’ils sont susceptibles d’induire (Petit, 2017a).

69Les pistes de résolution des difficultés sont certes sous-optimales, mais semblent envisageables. Les tests correspondent à la logique classique des régulateurs sectoriels ; les règles de type no-fault monopoly sont envisageables et sont d’ailleurs plus ou moins à l’œuvre pour les entreprises anciennement titulaires de droits exclusifs et les solutions basées sur les règles de responsabilité sont proches de la zone de confort des économistes du droit. Il s’agirait d’étendre aux algorithmes des logiques de type principe de précaution, responsabilité étendue pour risques systémiques, responsabilité de plein droit, responsabilité pour faute basée sur un standard de précaution, etc. Il n’est pas exclu que le passage d’une régulation substantielle à une régulation procédurale, telle qu’elle a pu être observée dans le domaine de la régulation financière (Kirat et Marty, 2015), ne puisse pas être transposé dans ce domaine. Dans ce cadre, la supervision du régulateur ne porte plus sur l’identification et la mesure des effets d’un manquement donné, mais sur l’existence et l’effectivité de procédures de contrôle interne destinées à prévenir l’occurrence d’un éventuel dommage. En d’autres termes, une « responsabilité par construction » peut être mise en jeu.

70Les enjeux pour les firmes mettant en œuvre de tels algorithmes sont liés à des questions de contrôle, de transparence et de redevabilité. Le contrôle s’entend dans le sens qu’il recouvre en langue anglaise. Il s’agit du pouvoir sur le fonctionnement de l’algorithme ou encore de la maîtrise du processus. La transparence met en jeu l’accès à l’algorithme. La redevabilité implique que l’entreprise ait à rendre des comptes quant aux effets sur le marché du fonctionnement du logiciel. La logique est celle de l’auto-évaluation des impacts et de la prévention des dommages par le concepteur et l’utilisateur, à la fois ex ante pour minimiser le risque de dommage, mais également ex post. Cette supervision est indispensable au vu de l’évolution autonome de l’algorithme au fil de son apprentissage.

71Ces incitations à mettre en œuvre des modèles d’autorégulation (FTC, 2016) ne sont pas exclusives d’une régulation publique ou d’une supervision par les différentes parties prenantes.

72Diverses initiatives ont pu être prises en vue de construire un cadre de régulation des systèmes algorithmiques. Par exemple, en France, le secrétariat d’État chargé du numérique a demandé, dans le cadre de la préparation de la loi pour une république numérique [41], au Conseil général de l’économie, de l’industrie, de l’énergie et des technologies de formuler des propositions en la matière (Pavel et Serris, 2016). De ses recommandations a résulté la mise en œuvre d’une plateforme collaborative en ligne, TransAlgo, par l’INRIA (en partenariat avec le Conseil national du numérique et l’Institut mines télécom) visant à développer des outils logiciels et des méthodes de tests algorithmiques.

73La mise en place de tels outils s’inscrit dans la logique décrite supra de promotion de la transparence, de l’autocontrôle et de la redevabilité. Il s’agit de prévenir le risque que le fonctionnement des algorithmes ait des effets anticoncurrentiels parfois même à l’insu de leurs développeurs et de leurs utilisateurs. Les contrôles, internes (dans une logique de politique de conformité) ou distribués, via des plateformes coopératives, peuvent permettre de développer des « algorithmes responsables ». À cette aune, ces derniers devraient être transparents pour l’entité qui aurait à la superviser. Les données utilisées devraient être identifiées quant à leur origine et celles produites par l’algorithme devraient voir leurs règles de constitution expliquées. Cependant, la difficulté demeure avec les algorithmes basés sur des réseaux neuronaux : l’explication de la décision ne peut être fournie (des prédictions sont en jeu et non des causalités) et les traces des calculs réalisés difficiles à reconstituer ex post, sachant que l’algorithme évolue continuellement.

74En tout état de cause, le cas des algorithmes fonctionnant sur la base de l’intelligence artificielle pose des problèmes significatifs en matière de mise en œuvre des règles de concurrence. Tant le choix des firmes que le fonctionnement des algorithmes répondent à une seule logique : celle de la recherche de l’efficience sans qu’il soit à un quelconque moment possible de déterminer une intention anticoncurrentielle… quand bien même tous peuvent aisément anticiper que ce sera la résultante collective de choix concurrentiels individuels. On retrouve un problème classique de décisions rationnelles conduisant à un résultat collectif sous-optimal.

75La problématique touche également la définition même de la politique de concurrence et l’idéal de marché qui la sous-tend. Le modèle de la concurrence pure et parfaite repose notamment sur des principes de transparence et d’instantanéité des ajustements. Les algorithmes ont pour effet de rendre possibles ces deux hypothèses qui demeuraient en grande partie des horizons inatteignables. Cependant, ils permettent ce faisant de consolider des tendances naturelles de constitution d’équilibres oligopolistiques stables. Ces derniers correspondaient à des situations dans lesquelles les opérateurs, dans un schéma de guerre froide, évitaient une guerre des prix possiblement destructrice et pouvaient trouver une sorte de coexistence pacifique, acceptable par eux, mais coûteuse pour le consommateur. L’algorithme a pour effet de rendre cet équilibre plus aisé à trouver et plus stable en ôtant à la coordination tacite tous les ferments de déstabilisation tenant à des biais informationnels ou émotifs. L’algorithme permet d’apprécier exhaustivement et robustement les faits, de prévoir l’avenir immédiat et d’identifier des risques à partir de signaux faibles et enfin d’éviter toute réaction humaine, inappropriée, disproportionnée ou à contretemps. Il permet également de développer des connaissances tacites et idiosyncrasiques nécessaires à l’établissement d’attentes réciproques quant aux comportements de chacun indispensables à la construction d’un équilibre collusif.

76À cette aune, le marché seul n’est pas autorégulateur. Les incitations qu’il produit conduisent à un blocage du processus de concurrence d’autant plus inexorable qu’il procède de l’intérêt bien compris des participants. Étant donné que ceux-ci confient leurs décisions à une intelligence artificielle qui, elle, ne commet pas d’erreur humaine, la collusion semble le résultat fatal du fonctionnement du marché. Nous retrouvons donc, à l’opposé des conclusions de la seconde École de Chicago, certaines des conclusions de la première école du nom et des ordolibéraux allemands : il faut défendre le processus de concurrence pour lui-même, mais de fait contre lui-même. Fût-ce au prix de la renonciation à certains gains d’efficacité de court terme (Marty, 2015).

77La prise en compte du risque d’émergence d’équilibres collusifs stables sur certains marchés par le jeu d’algorithmes capables d’apprentissages autonomes et ne permettant pas de relier la décision à une fonction objective initiale peut conduire à s’interroger sur la capacité des règles de concurrence (ou de toute réglementation ex ante) à répondre à un risque concurrentiel d’autant plus grave potentiellement qu’il prend place dans des marchés de plus en plus concentrés. Limiter la capacité des algorithmes à ajuster les prix en regard des risques potentiels sur la concurrence reviendrait sans doute à appliquer un principe de précaution dont le coût économique global pourrait être hors de proportion avec le risque qu’il serait susceptible de prévenir. À cette aune, la conception et la mise en œuvre des règles de concurrence ne sauraient se limiter au dialogue entre juristes et économistes, comme le promouvait la more economic approach, mais devraient s’inscrire dans une coopération entre juristes et ingénieurs, dans le cadre d’une more technical approach.

78Celle-ci pourrait se décliner à plusieurs niveaux (Brownsword, 2017). Un premier pourrait se situer ex ante dans des phases d’évaluation préalable des risques concurrentiels dont les algorithmes pourraient être porteurs. Un second pourrait se situer ex post dans le cadre d’une supervision régulatoire, comme nous l’avons vu au travers des recommandations d’Ezrachi et Stucke (2017b).

79Le dialogue entre le juriste et l’ingénieur pourrait également porter sur la conception même des algorithmes. La logique sous-jacente est la même que celle de la supervision déléguée (Kirat et Marty, 2015). Dans la mesure où il est difficile de contrôler extérieurement ex post le comportement d’un agent (en l’occurrence un algorithme), la réglementation pourrait porter sur l’amont, c’est-à-dire la conception même de l’algorithme de prix. Cela conduirait à une régulation des algorithmes par les algorithmes. La réglementation (ici la prise en compte des règles de concurrence) pourrait être intégrée aux dispositifs techniques eux-mêmes au travers de leur conception, mais également au travers de leur gestion au jour le jour. Les règles applicables en la matière pourraient s’inspirer, comme nous l’avons vu, de celles relatives à la protection des données personnelles.

80Cependant, la prise en compte des spécificités de l’apprentissage machine peut soulever des questions spécifiques. Une première tient aux périmètres respectifs des choix automatiques et des choix qui peuvent être forcés au travers d’interventions humaines (Lynskey, 2017b). Une seconde tient à la capacité du juge de la concurrence ou d’une autorité de régulation à analyser ex post le fonctionnement effectif de l’algorithme. L’existence d’une information incomplète et asymétrique quant aux choix passés de l’algorithme peut affaiblir une supervision extérieure qui ne peut s’exercer pleinement que dans un cadre dans lequel la transparence et la redevabilité sont effectives.

Notes

  • [1]
    L’auteur tient à remercier Nicolas Petit, Yassine Lefouili et Patrice Bougette pour l’extrême pertinence de leurs remarques et recommandations. Il adresse également ses remerciements à l’ensemble des participants à la conférence Intelligence artificielle, moteur de la transformation d’un territoire, organisée le 10 mai 2017 par le CEEI NCA (Centre européen d’entreprises et d’innovation de Nice Côte d’Azur), ainsi qu’aux participants du Competition Policy Seminar organisé par la Toulouse School of Economics le 23 juin 2017, pour leurs remarques aussi stimulantes qu’enrichissantes. Toute erreur, omission ou imperfection demeure néanmoins de sa pleine et entière responsabilité.
  • [2]
    Communication de David Currie, président de la CMA, le 3 février 2017, The Role of Competition in Stimulating Innovation, Concurrences Innovation Economics Conference, King’s College.
  • [3]
    Cette situation peut être illustrée aux États-Unis. Dans l’affaire Topkins, un algorithme de tarification dynamique était utilisé par des concurrents pour mettre en œuvre un accord, Department of Justice, 30 April 2015, https://www.justice.gov/atr/case/us-v-david-topkins.
  • [4]
    Ce second cas de figure peut correspondre à l’affaire Eturas. Un logiciel de réservation utilisé par des agences de voyages lituaniennes était le vecteur d’un plafonnement des remises que pouvaient accorder des agences concurrentes, Cour de justice, 21 janvier 2016, Eturas C-74/14.
  • [5]
    Voir, par exemple, pour la Federal Trade Commission, les prises de position de T. McSweeny (2017) et de M. Ohlausen (2017).
  • [6]
    L’un des enjeux économiques majeurs liés à l’intelligence artificielle tient à ses effets potentiels sur l’emploi, Arntz et al. (2016). Par exemple, 15 % des emplois français sont susceptibles de faire l’objet d’une automatisation (Le Ru, 2016). Au-delà de la part des emplois qui pourrait disparaître du fait de l’automatisation des tâches, le principal problème tient à la polarisation du marché du travail (Autor, 2015) et au renforcement considérable des inégalités de revenus (Piketty et Saez, 2014). Cependant, il convient de ne pas oublier que l’effet de l’intelligence artificielle sur l’emploi ne se limitera pas à l’industrie et concernera les professions juridiques à la fois en matière de tâches répétitives, mais également d’analyses de contrats et de jurisprudence. Le professionnel pourrait voir ses fonctions évoluer vers la validation des propositions faites par l’algorithme.
  • [7]
    L’importance de la prédiction dans la décision du juge est à relever. Oliver W. Holmes (1897) notait que la vie du droit n’était pas logique, mais expérience. Dans ce cadre, la décision du juge ne repose pas sur une déduction logique à partir d’une théorie (juridique ou économique), qui se situerait en surplomb, mais en fonction de son expérience, de sa « compréhension », des conséquences possibles de sa décision sur le méchant homme (the bad man), en d’autres termes l’individu pour lequel la règle n’existe que par l’anticipation de la sanction qui lui sera associée.
  • [8]
    Il est d’ailleurs à noter qu’un débat se développe dans la doctrine quant à l’importance effective des enjeux liés aux conséquences concurrentielles des algorithmes, comme en témoignent par exemple les prises de position pour le compte de la FTC américaine de McSweeny (2017) et Ohlausen (2017). D’une part, l’importance prise par la question dans la littérature académique contrasterait avec le nombre de cas de pratiques anticoncurrentielles dans lesquelles les algorithmes de prix seraient en jeu. Cela traduirait un biais de publication (Schrepel, 2017). D’autre part, ces derniers ne contribueraient pas à susciter de nouveaux problèmes concurrentiels, mais ne feraient que faciliter des pratiques déjà connues (Ohlhausen, 2017). Non seulement, les algorithmes ne reprendraient que des rôles que jouaient jadis des individus (et qui à ce titre peuvent être réglés dans les canons habituels des politiques de concurrence), mais les difficultés traditionnelles en matière de définition d’une ligne de partage entre une adaptation unilatérale rationnelle aux conditions de marché et une pratique collusive demeureraient identiques. Nous verrons infra que des questions demeurent cependant : comment les algorithmes peuvent-ils favoriser l’émergence et renforcer la stabilité des équilibres collusifs et quelles sont les capacités des règles de concurrence à identifier et à remédier à ces derniers dans un contexte dans lequel la notion d’accord de volontés est pour le moins complexifiée.
  • [9]
    Securities and Exchange Commission, Release n° 3950, October 16, 2014. Administrative Proceeding, File n° 3-16199, Athena Capital Reseach, LLC.
  • [10]
    Voir, dans le cas français, le dossier des exigences techniques de l’ARJEL relatif aux obligations imposées aux opérateurs agréés de jeux ou de paris en ligne, version du 24 septembre 2012.
  • [11]
    Il n’est pas acquis que les données brutes soient en elles-mêmes la source d’un avantage concurrentiel déterminant conduisant potentiellement à les traiter comme des facilités essentielles. D’une part, il peut s’agir dans une certaine mesure d’un bien non rival, sachant que le consommateur peut les fournir à plusieurs plateformes en même temps (modèle de multi-hébergement). D’autre part, les flux de données sont tels que les masses actuelles ne représenteront qu’une faible part des stocks d’ici quelques années, notamment sous l’effet du développement de l’Internet des objets (IoT). En outre, le pouvoir de marché procède bien moins des données brutes que des données retraitées par les algorithmes.
  • [12]
  • [13]
    United States v. Andreas, 216 F.3d 645 (7th Cir. 2000), voir Klawiter (2012) pour une mise en perspective et Eichenwald (2001) pour un roman tiré du cas ADM.
  • [14]
    Il s’agit d’un modèle qui peut être représenté comme une roue. Il n’existe pas de communication directe le long du cercle extérieur d’un rayon à l’autre, mais l’ensemble des informations est centralisé et redistribué par le moyeu. Les flux d’échanges verticaux sont alors des substituts à des échanges horizontaux décentralisés… et qui seraient probablement inefficaces en termes de coordination.
  • [15]
    Pour une discussion sur la conformité de l’algorithme de prix mis en œuvre par Uber avec les règles de l’antitrust américain, se reporter à Anderson et Huffman (2017). Ces derniers mettent en balance l’effet (anticoncurrentiel) de coordination horizontale avec le partage des risques économiques entre les participants (i.e. les gains d’efficience).
  • [16]
    United States v. Airline Tarriff Publishing Company, 836 F. Supp 9, 12, DDC, 1993.
  • [17]
    Nous utilisons ici improprement la traduction française d’intelligence artificielle, alors que l’intelligence en anglais désigne la compréhension. Nous retrouvons d’ailleurs ici les caractéristiques de ces algorithmes en matière de reconnaissance d’images ou de sons. Les algorithmes identifient les structures de grandes masses de données (leurs patterns) et permettent de réaliser des prédictions à partir de cette compréhension.
  • [18]
    L’exemple le plus caractéristique de ces algorithmes peut être apporté avec celui d’un ouvrage de Peter Lawrence, The Making of a Fly, vendu sur la place de marché d’Amazon en novembre 2011. Il illustre cependant un phénomène potentiellement intéressant pour notre propos. Dans le cas d’espèce, les règles de variation des prix posée par les deux algorithmes en interaction ne conduisaient pas à une convergence vers un prix mutuellement profitable, mais poussaient à chaque itération les prix à la hausse vers des valeurs hors marché (Salcedo, 2015). Le premier vendeur avait défini son prix comme devant être dans un rapport de 0,9983 avec le second et ce dernier avait fixé son prix à 1,27059 celui du premier. Le prix fixé au travers des deux algorithmes atteint, avant qu’une intervention humaine le corrige, plus de 23 millions de dollars américains (Philippe, 2017). Notons au passage que les retours d’expérience sur les modèles de trading à haute fréquence ou de trading algorithmique révèlent bien plus un effet d’accroissement de la volatilité des cours et de montée de ces derniers aux extrêmes que des effets de stabilisation artificielle.
  • [19]
    Le maintien de l’équilibre dans le temps est étroitement lié à ce que les firmes peuvent inférer du comportement des autres à partir des données observables sur le marché. Plus les données sont accessibles rapidement et plus elles sont désagrégées, plus il est facile d’observer et de répondre à une éventuelle déviation par rapport à l’équilibre collusif (Ivaldi et al., 2003).
  • [20]
    Décision C(1999) 3022 final et arrêt T-342/99 du 6 juin 2002.
  • [21]
    Il serait également possible de considérer le facteur additionnel déterminant (Plus-Factor) qui facilite la collusion au sens de Kovacic et al. (2011).
  • [22]
    Voir également l’arrêt de la Cour de justice, 22 octobre 2015, AC Treuhand c. Commission, affaire C-194/14P.
  • [23]
    Il serait également possible de considérer que la propension à s’engager dans des accords collusifs répond souvent moins à un calcul coût/bénéfice pour les managers qu’à l’influence de pratiques tenues pour acceptables, sinon légitimes, dans le milieu professionnel dans lequel ils évoluent. Le non-respect de la règle concurrentielle peut ne pas être conscient, voire être accepté, si celle-ci est tenue pour une contrainte extérieure (Parker, 2006 ; Stephan, 2008). Des algorithmes évoluant dans les eaux froides du calcul rationnel peuvent échapper à ces biais, à moins qu’ils ne reproduisent ces usages au fil de leur apprentissage.
  • [24]
    Data étant le pluriel de datum, il est plus rigoureux d’écrire les Big Data.
  • [25]
    Le test de Turing a été proposé en 1954 et un projet de recherche sur ce thème avait été déposé en 1955 (McCarthy et al., 1955).
  • [26]
    Il s’agit, dans le cadre de cette phase d’apprentissage supervisé, d’observer les éventuelles erreurs d’identification de l’algorithme et de les corriger au travers d’un réglage fin des paramètres (fine tuning).
  • [27]
    Banbura et al. (2013) définissent le now-casting comme « the prediction of the present, the very near future and the very recent past ». Cela permet de collecter et donc de traiter en temps réel des données qui sinon ne seraient agrégées qu’après un long délai. Cette immédiateté est à la source d’une possible création de valeur pour les firmes. Il est cependant bien évident qu’elle crée des problèmes de protection des données personnelles. Comme le montre l’OCDE (2016b), ces méthodes sont utilisées pour prévoir des évolutions d’offres de prix sur des sites d’enchères. Elles permettront de modéliser en temps réel de possibles inflexions dans les comportements de marché, d’où leur importance pour la stabilisation d’un équilibre collusif.
  • [28]
    Rapport écrit d’Ariel Ezrachi et de Maurice Stucke (OPL0043) pour le rapport de la commission de la Chambre des Lords (2016) sur les plateformes en ligne et le marché unique numérique européen.
  • [29]
    Dans une situation de coordination en information imparfaite et en situation de rationalité limitée, il est impossible de déduire de l’observation du comportement de chacun une régularité qui permette de constituer un point d’appui sûr pour anticiper les comportements futurs et même de qualifier le comportement actuel. L’incertitude radicale qui s’ensuit est un obstacle déterminant à l’établissement d’une coordination avec les autres agents. Il est donc nécessaire d’appuyer celle-ci sur un fondement conventionnel qui permet d’anticiper les comportements de chacun. Une telle convention ne peut procéder que de formes d’évaluations communes des comportements et des objets. Le risque d’échec apparaît dès lors que les agents ne partagent pas la même convention ou que l’un d’entre eux rompt avec la convention suivie par ses partenaires (Eymard-Duvernay et al., 2006).
  • [30]
    Un algorithme fonctionnant sur la base de l’intelligence artificielle est capable de développer de lui-même de nouveaux réseaux décisionnels pour traiter au mieux des informations qui ne figuraient pas dans les données initiales qui ont servi à son calibrage (Castelvecchi, 2016).
  • [31]
    Le parallèle avec les activités de trading à haute fréquence peut être intéressant dans la mesure où se posent des problèmes identiques en termes de transparence du fonctionnement des algorithmes, de redevabilité et de contrôle de ces derniers. Dans ce cadre, une supervision ex post est réalisée par l’autorité en charge de la régulation des marchés financiers, à l’instar de l’AMF dans le cas français. Au niveau européen, la directive 2014/65/UE du 15 mai 2014 relative aux marchés d’instruments financiers (MIF2) fait peser de nombreuses obligations sur les opérateurs utilisant de tels algorithmes en termes de conservation des données, des lignes de code et de transparence sur de nombreux critères. Cette logique d’obligation de transparence et de redevabilité est également à l’œuvre aux États-Unis sous l’impulsion de l’US Commodity Futures Trading Commission (CFTC). Elle ne peut cependant être aisément transposée à des algorithmes basés sur des réseaux neuronaux mettant en œuvre des apprentissages autonomes. Reste cependant à déterminer quelle est la part effective de tels algorithmes dans les algorithmes de prix actuellement utilisés.
  • [32]
    Le temps où l’on pouvait considérer qu’un algorithme était performant pour appliquer une règle, mais impropre à identifier une convention (dans le sens de pattern recognition), est désormais révolu (Levy et Murnane, 2005).
  • [33]
    « Due to the large number of parameters that are used by the algorithms, even the engineers who constructed the system are often not able to explain why the algorithms made specific decisions », Pr. Tom Rodden dans le cadre de son audition par la Chambre des Lords (2016) – rapport écrit n° OPL0074.
  • [34]
    Notons que la question de la capacité des algorithmes à rendre des comptes sur leurs décisions dépasse largement le domaine de l’économie de la concurrence dès lors que l’on considère que ceux-ci peuvent eux-mêmes prendre des décisions infondées (Kanheman, 2012) ou prendre des décisions pouvant être à l’origine de dommages causés aux tiers (voir l’éditorial du n° 7621 de Nature, vol. 537, 21 septembre 2016 : « More Accountability for Big-data Algorithms »). Une illustration de ces questionnements peut être apportée par les modèles de justice prédictive et de décisions rendues sur la base d’algorithmes (Alarie et al., 2016). De la même façon, Castelvecchi (2016) donne l’exemple d’un banquier central qui prendrait ses décisions en matière de politique de taux à partir d’un tel algorithme. Il ne pourrait, dans le cadre de sa communication aux marchés, qu’expliciter ses choix de la façon suivante : « the black box made me do it ».
  • [35]
    Pr. Tom Rodden, rapport écrit n° OPL0074, Chambre des Lords, 2016.
  • [36]
    Ce dernier pouvant être un régulateur ou algorithme. Le site camelcamelcamel.com, qui assure un suivi des prix sur Amazon, donne un exemple des possibilités de suivi.
  • [37]
    Une interdiction de certains systèmes pour prévenir tout risque correspond à une logique de dommage induit par la régulation pour éviter toute survenance de risque. Il s’agit d’une logique de knee-jerk regulation (Petit, 2017a).
  • [38]
    Affaire T-566/8, 13 septembre 2013, pt. 34.
  • [39]
    Arrêt de la Cour de justice, 8 juillet 1999, Commission c. Anic Partecipazioni, affaire C-49/92, points 116 et 117.
  • [40]
    Les premiers wagons au début du XIXe siècle reprenaient la forme de véhicules hippomobiles. Cela représentait une perte en termes de volumes de charge, mais les concepteurs reprenaient des modèles existants sans penser aux possibilités d’optimisation dans le nouveau système technique (Perriault, 2002).
  • [41]
    Loi n° 2016-1321 du 7 octobre 2016.
Français

Les algorithmes de prix mis en œuvre par des firmes concurrentes peuvent constituer le support de collusions. Les ressources offertes par les données massives, les possibilités d’ajustement des prix en temps réel et l’analyse prédictive peuvent permettre d’atteindre rapidement et de maintenir durablement des équilibres de collusion tacite. Le recours à l’intelligence artificielle pose un enjeu spécifique en ce sens que l’algorithme peut découvrir de lui-même l’intérêt d’un accord tacite de non-agression et que l’analyse de son processus décisionnel est particulièrement difficile. Ce faisant, la sanction de l’entente sur la base du droit des pratiques anticoncurrentielles ne va pas de soi. L’article explore donc les voies de régulation possibles, que celles-ci passent par des audits ou par l’activation de règles de responsabilité.

Mots-clés

  • algorithmes de prix
  • intelligence artificielle
  • collusion tacite
  • règles de responsabilité
  • mise en œuvre des règles de concurrence

Références

  • Alarie B., Niblett A. and Yoon A. (2016), « Regulation by Machine », Working Paper, December, available at SSRN: https://ssrn.com/abstract=2878950.
  • Anderson M. and Huffman M. (2017), « The Sharing Economy Meets the Sherman Act: Is Uber a Firm, a Cartel, or Something in Between », Columbia Business Law Review, à paraître, https://papers.ssrn.com/abstract_id=2954632.
  • Arntz M., Gregory T. and Zierahn U. (2016), « The Risk of Automation for Jobs in OECD Countries: A Comparative Analysis », OECD Social, Employment and Migration Working Papers, n° 189.
  • En ligneAubert E., Rey P. and Kovacic W. (2006), « The Impact of Leniency and Whistle-Blowing Programs on Cartels », International Journal of Industrial Organization, vol. 24, pp. 1241-1266.
  • En ligneAutor D. (2015), « Why are There Still so Many Jobs? The History and Future of Workplace Automation », Journal of Economic Perspectives, vol. 9, n° 3, Summer, pp. 3-30.
  • Autoritat Catalana de la Competència (2016), The Data-Driven Economy: Challenges for Competition, November, 44 p.
  • Balkin J. M. (2015), « The Path of Robotics Law », California Law Review, vol. 6, June, pp. 45-60.
  • Banbura M, Giannone D., Modugno M. and Reichlin L. (2013), « Now-Casting and the Real-Time Data Flow », European Central Bank Working Paper Series, n° 1564, July.
  • Baysinger B. D. (1991), « Organization Theory and the Criminal Liability of Organizations », Boston Law Review, vol. 71, pp. 395-419.
  • Borenstein S. (1999), « Rapid Price Communication and Coordination: The Airline Tariff Publishing Case », in Kwoka J. E. and White L. J. (eds.), The Antitrust Revolution: Economics, Competition, and Policy, Oxford University Press.
  • Brownsword R. (2017), « The Rule of Law, Rules of Law, and Technical Management », in Weimer M., Cseres K. and Eckes C. (eds.), The Rule of Law in the Technological Age – Challenges and Opportunities for the EU, Amsterdam Centre for European Law and Governance Working Paper 2017-02, July, pp. 8-17.
  • Brynjolfsson E. and McAfee A. (2014), The Second Machine Age, W.W. Norton & Company Inc.
  • En ligneCalo R. (2017), « Artificial Intelligence Policy: A Roadmap », University of Washington Law School Working Paper, available at SSRN: https://ssrn.com/abstract=3015350.
  • En ligneCastelvecchi D. (2016), « Can we Open the Black-box of AI? », Nature, 5 October.
  • En ligneChen L., Mislove A. and Wilson C. (2016), « An Empirical Analysis of Algorithmic Pricing on Amazon Marketplace », College of Computer and Information Science, Northeastern University, Working Paper.
  • En ligneChopra S. and White L. F. (2011), A Legal Theory for Autonomous Artificial Agents, University of Michigan Press.
  • Christensen C. (1997), The Innovator’s Dilemma: When New Technologies Cause Great Firms to Fail, Harvard University Press.
  • Christensen C. M., Raynor M. E. and McDonald R. (2015), « What is Disruptive Innovation? », Harvard Business Review, December.
  • Commission européenne (2017), Final Report on the E-Commerce Sector Inquiry, SWD(2017) 154 final, Commission Staff Working Document accompanying the Report, COM (2017) 229 final, 10 May, 298 p.
  • Cuéllar M. F. (2016), « Cyber-Delegation and the Administrative State », Stanford Public Law Working Paper, n° 2754385, October, 23 p.
  • Currie D. (2017), « The Role of Competition in Stimulating Innovation », Concurrences Innovation Economics Conference, King’s College, 3rd February.
  • Eichenwald K. (2001), The Informant: A True Story, Broadway Books, 656 p.
  • European Commission (2017), « Free Flow of Data and Emerging Issues of the European Data Economy », Commission Staff Working Document, SWD(2017) 2 final, 10 January.
  • En ligneEymard-Duvernay F., Faverau O., Orléan A., Salais R. et Thévenot L. (2006), « Valeurs, coordination et rationalité : trois thèmes mis en relation par l’économie des conventions », in Eymard-Duvernay F. (dir.), L’économie des conventions, méthodes et résultats, tome 1, Débats, Paris, La Découverte, pp. 23-44.
  • En ligneEzrachi A. and Stucke M. E. (2016), Virtual Competition: The Promise and Perils of the Algorithm Driven Economy, Harvard University Press.
  • Ezrachi A. and Stucke M. E. (2017), « Two Artificial Neural Networks Meet in an Online Hub and Change the Future (of Competition, Market Dynamics and Society) », Working Paper, April, 46 p., available at SSRN: https://ssrn.com/abstract=2949434.
  • Federal Trade Commission (2016), Big Data: a Tool for Inclusion or Exclusion? Understanding the Issue, FTC Report, January, 50 p.
  • Gal M. S. (2017), « Algorithmic-Facilitated Coordination: Market and Legal Solutions », Competition Policy International, 15th May, https://www.competitionpolicyinternational.com/algorithmic-facilitated-coordination-market-and-legal-solutions/.
  • Gal M. S. and Elkin-Koren N. (2017), « Algorithmic Consumers », Harvard Journal of Law and Technology, vol. 30, n° 2, Spring.
  • Garoupa N. (2000), « Corporate Criminal Law and Organization Incentives: a Managerial Perspective », Managerial Decision Economics, volume 21, issue 6, September, pp. 243-252.
  • Givry A. (2015), « La régulation du trading haute fréquence : approche française et difficultés », Annales des Mines- Réalités industrielles, n° 1, pp. 74-77.
  • Hammond S. C. (2005), « Caught in the Act: Inside an International Cartel », OECD Competition Committee Working Party n° 3, 18 October, https://www.justice.gov/atr/speech/caught-act-inside-international-cartel.
  • Harrington J. (2008), « Detecting Cartels », in Buccirossi P. (ed.), Handbook in Antitrust Economics, MIT Press.
  • Hayek F. A. (1945), « The Use of Knowledge in Society », American Economic Review, vol. 35, n° 4, September, pp. 519-530.
  • En ligneHeinemann A. and Gebicka A. (2016), « Can Computers Form Cartels? About the Need for European Institutions to Revise the Concertation Doctrine in the Information Age », Journal of European Competition Law & Practice, vol. 7, n° 7, pp. 431-441.
  • En ligneHolmes O. W. (1897), « The Path of the Law », Harvard Law Review, vol. 10, pp. 457 et s.
  • House of Lords (2016), Online Platforms and the EU Digital Single Market, Select Committee on the European Union Internal Market.
  • Ivaldi M., Jullien B, Rey P. and Tirole J. (2003), The Economics of Tacit Collusion, Report for the DG Competition, European Commission, March, 75 p.
  • Jakhu G. and Malik P. (2017), « Dilemma in Antitrust Enforcement: how Use of Economics can Guide Enforcement Rules in Multi-sided Markets », Journal of Antitrust Enforcement, vol. 5, n° 2, August, pp. 260-275.
  • Kahneman D. (2012), Système 1/Système 2 : les deux vitesses de la pensée, Paris, Flammarion.
  • Khan L. M. (2017), « Amazon’s Antitrust Paradox », Yale Law Journal, vol. 126, pp. 710-805.
  • Kirat T. and Marty F. (2015), « The Regulatory Practice of the French Financial Regulator, 2006-2011 – From Substantive to Procedural Financial Regulation », Journal of Governance and Regulation, vol. 4, n° 4 (continued –4), pp. 441-450.
  • Klawiter D. C. (2012), « Antitrust Criminal Sanctions: Empirical Analysis of Algorithmic », Competition Policy International Journal, vol. 8, n° 1, Spring, pp. 90-104.
  • En ligneKleinberg J., Jens L., Mullainathan S. and Obermeyer Z. (2015), « Prediction Policy Problems », American Economic Review, vol. 105, n° 5, May, pp. 491-495.
  • Kleinberg J., Lakkaraju H., Lekovec J., Ludwig J. and Mullainathan S. (2017), « Human Decisions and Machine Prediction », NBER Working Paper, n° 23180, February.
  • Kovacic W. E., Marshall R. C., Marx L. M. and White H. L. (2011), « Plus Factors and Agreement in Antitrust Law », Michigan Law Review, vol. 110, pp. 393 et s.
  • Le Cun Y., Bengio Y. and Hinton G. (2015), « Deep-Learning: A Review », Nature, 521, 28 May, pp. 436-444.
  • Le Ru N. (2016), « L’effet de l’automatisation sur l’emploi : ce qu’on sait, ce qu’on ignore », Note d’analyse France Stratégie, n° 49, juillet.
  • En ligneLenglet M. et Riva A. (2013), « Les conséquences inattendues de la régulation financière : pourquoi les algorithmes génèrent-ils de nouveaux risques sur les marchés financiers ? », Revue de la régulation, n° 14, 2nd semestre, automne.
  • Levy F. and Murnane R. (2005), The New Division of Labour, Princeton University Press.
  • Lynskey O. (2017a), « Regulating “Platform Power” », LSE Law, Society and Economy Working Papers, 1/2017, London School of Economics and Political Science, 31 p.
  • Lynskey O. (2017b), « Regulation by Platforms: The Impact of Fundamental Rights », in Weimer M., Cseres K. and Eckes C. (eds.), The Rule of Law in the Technological Age – Challenges and Opportunities for the EU, Amsterdam Centre for European Law and Governance Working Paper 2017-02, July, pp. 18-28.
  • McCarthy J., Minsky M., Rochester N. and Shannon C. (1955), « A proposal for the Dartmouth Summer Research Project on Artificial Intelligence », August 31, partiellement repris in AI Magazine, vol. 27, n° 4, 2006, pp. 12-14.
  • McKamey M. (2017), « Legal Technology: Artificial Intelligence and the Future of Law Practice », Appeal, vol. 22, n° 45, pp. 45-58.
  • McSweeny T. (2017), « Algorithms and Coordinated Effects », Center for Competition Law and Policy, University of Oxford, 22 May, https://www.ftc.gov/system/files/documents/public_statements/1220673/mcsweeny_-_oxford_cclp_remarks_-_algorithms_and_coordinated_effects_5-22-17.pdf.
  • Marmer V., Shneyerov A. and Kaplan U. (2016), « Identifying Collusion in English Auctions », Working Paper, available at SSRN: https://ssrn.com/abstract=2738789.
  • En ligneMarty F. (2007), « La notion de position dominante collective dans les politiques de concurrence : incertitudes économiques et insécurité juridique », Économie et institutions, n° 10-11, pp. 185-218.
  • Marty F. (2015), « Towards an Economics of Convention-based Approach of the European Competition Policy », Historical Social Research, vol. 40, n° 1, pp. 94-111.
  • Marty F. (2017), « L’économie des plateformes : dissipation ou concentration de la rente ? », Sciences Po OFCE Working Paper, n° 13, 2017/4, 28 p.
  • Mehra S. K. (2016b), « Antitrust and the Robo-Seller: Competition in the Time of Algorithms », Minnesota Law Review, vol. 100, pp. 1323 et s.
  • Moore-Coyler R. (2016), « Predictive Analytics are the Future of Big Data – Enterprises Need to Use their Data Repositories to Predict not to Reflect », V3, October 9.
  • OCDE (2016a), Discrimination par les prix, DAF/COMP(2016)15, novembre.
  • OCDE (2016b), Big Data: Bringing Competition Policy to the Digital Era, DAF/COMP(2016)14, October.
  • OCDE (2017), Algorithms and Collusion: Competition Policy in the Digital Age, September, 72 p.
  • Ohlausen M. (2017), « Should we Fear the Things That go Beep in the Night? Some Initial Thoughts on the Intersection of Antitrust Law and Algorithmic Pricing », 23 May https://www.ftc.gov/system/files/documents/public_statements/1220893/ohlhausen_-_concurrences_5-23-17.pdf.
  • En ligneParker C. (2006), « The “Compliance Trap”: the Moral Message in Responsive Regulatory Enforcement », Law & Society Review, vol. 40, n° 3, pp. 591-622.
  • Pavel I. et Serris J. (2016), Modalités de régulation des algorithmes de traitement des contenus, Conseil général de l’économie, de l’industrie, de l’énergie et des technologies, Ministère de l’Économie, de l’Industrie et du Numérique, rapport n° 2015/36/CGE/SG, mai.
  • Perriault J. (2002), L’accès au savoir en ligne, Paris, Odile Jacob, coll. « Médiologie ».
  • Petit N. (2013), « The Oligopoly Problem in EU Competition Law », in Liannos I. and Geradin D. (eds.), Handbook on European Competition Law: Substantive Aspects, chapter 7, Cheltenham, Edward Elgar, pp. 259-349.
  • En lignePetit N. (2016), « Technology Giants – The “Molygopoly” Hypothesis and Holistic Competition: A Primer », Working Paper, Université de Liège, October, 76 p.
  • En lignePetit N. (2017a), « Law and Regulation of Artificial Intelligence and Robots: Conceptual Framework and Normative Implications », Working Paper, Université de Liège, March.
  • En lignePetit N. (2017b), « Antitrust and Artificial Intelligence: A Research Agenda », Journal of European Competition Law & Practice, vol. 8, n° 6, pp. 361-362.
  • En lignePetrikaite V. (2016), « Collusion with Costly Consumer Search », International Journal of Industrial Organization, vol. 44, pp. 1-10.
  • Philippe J. (2017), Algorithmes et concurrence, Séminaire Philippe Nasse, Ministère de l’Économie et des Finances, Paris, juin.
  • En lignePiketty Th. and Saez E. (2014), « Inequality in the Long Run », Science, vol. 344, n° 6186, pp. 838-843.
  • Porter M. (1998), Competitive Strategy – Techniques for Analysing Industries and Competitors, New York, The Free Press.
  • Salais R. et Storper M. (1993), Les mondes de production : enquête sur l’identité économique de la France, Paris, Éditions de l’EHESS.
  • Salcedo B. (2015), « Pricing Algorithms and Tacit Collusion », Pennsylvania State University Working Paper, http://brunosalcedo.com/docs/collusion.pdf.
  • Spiecker genannt Döhmann I. (2017), « Uncertainty in EU Technology Regulation: How Law Making and Law Enforcing Matters », in Weimer M., Cseres K. and Eckes C. (eds.), The Rule of Law in the Technological Age – Challenges and Opportunities for the EU, Amsterdam Centre for European Law and Governance Working Paper 2017-02, July, pp. 38-56.
  • Schrepel T. (2017), « Here’s why Algorithms are not (Really) a Thing », Le Concurrentialiste, mai, https://leconcurrentialiste.com/2017/05/15/algorithms-based-practices-antitrust/.
  • En ligneStephan A. (2008), « Beyond the Cartel Law Handbook: How Corruption, Social Norms and Collectivist Business Cultures can Undermine Conventional Enforcement Tools », University of East Anglia Centre for Competition Policy Working Paper 08-29, October, 26 p.
  • En ligneStigler G. J. (1964), « Theory of Oligopoly », Journal of Political Economy, vol. 72, pp. 44 et s.
  • En ligneStucke M. and Ezrachi A. (2015), « Artificial Intelligence and Collusion: When Computers Inhibit Competition », University of Tennessee Legal Studies Research Paper, n° 267.
  • Stucke M. and Ezrachi A. (2016), « How Pricing Bots Could Form Cartels and Make Things More Expensive », Harvard Business Review, 27 October.
  • En ligneStucke M. and Ezrachi A. (2017a), « How Your Digital Helper May Undermine Your Welfare and Our Democracy », Berkeley Technology Law Journal, à paraître.
  • Stucke M. and Ezrachi A. (2017b), « Algorithmic Collusion: Problems and Counter-Measures », OECD Roundtable on Algorithms and Collusion, DAF/COMP/WD(2017)25, May.
  • Stucke M. E. and Grunes A. P. (2016), Big Data and Competition Policy, Oxford University Press.
  • Surden H. (2014), « Machine Learning and Law », Washington Law Review, vol. 89, n° 1, pp. 87 et s.
  • Susskind R. (2013), Tomorrow’s Lawyers: An Introduction to Your Future, Oxford University Press.
  • En ligneTennenholtz M. (2004), « Program Equilibrium », Games and Economic Behavior, vol. 49, n° 2, pp. 363-373.
  • Verstager M. (2017), « Algorithms and Competition », in 18th Bundeskartellamt Conference on Competition, 16 March.
  • En ligneWilbanks J. T. and Topol E. J. (2016), « Stop the Privatization of Health Data », Nature, vol. 535, n° 7612, July.
Frédéric Marty
Chargé de recherche CNRS, Université Côte d’Azur, GREDEG, CNRS.
Mis en ligne sur Cairn.info le 01/12/2017
https://doi.org/10.3917/ride.312.0083
Pour citer cet article
Distribution électronique Cairn.info pour Association internationale de droit économique © Association internationale de droit économique. Tous droits réservés pour tous pays. Il est interdit, sauf accord préalable et écrit de l’éditeur, de reproduire (notamment par photocopie) partiellement ou totalement le présent article, de le stocker dans une banque de données ou de le communiquer au public sous quelque forme et de quelque manière que ce soit.
keyboard_arrow_up
Chargement
Chargement en cours.
Veuillez patienter...