L'évolution historique du droit international
Fiche : L'évolution historique du droit international. Recherche parmi 300 000+ dissertationsPar Capucine Diana • 9 Janvier 2022 • Fiche • 935 Mots (4 Pages) • 375 Vues
Article : Cardon Dominique, Introduction au numéro thématique – politique de l’algorithme, les métriques du Web, Réseaux
INTRO :
Aujourd’hui il y a trop d’informations sur le web DONC il faut les classer.
Plusieurs outils pour ça : les moteurs de recherche qui listent les infos, les hashtags, les timelines (pour la temporalité), les tags, les notes en ligne
→ Tout ça, c’est ce qu’on appelle les big datas = technique du micro ciblage qui permet de personnaliser l’offre. Mais ces outils reposent aussi sur des algorithmes.
2 réactions face à cette nouveauté :
Opportunités : car ça réinvente le marché numérique, ça rend la démocratie plus transparente et ça facilite les choses.
Risques : car peur d’un usage commercial de ces datas, peur que ça menace la vie privée et peur qu’on se retrouve dans une dictature de la colonisation du monde vécu avec un esprit de calcul et d’évaluation.
I/ Le web des citations
RS → Quand “l’espace public numérique” est apparu, on s’est d’abord dit que c’était une aubaine pour la démocratie. Beaucoup de théoriciens se sont dit : enfin une “communication libre et sans contrainte” (Habermas). BREF : les RSN dépassent les médias traditionnels.
MAIS : si l’un des grands espoirs d'internet = pleins de pdv différents et donc ça ouvrirait le débat, en réalité les internautes sont enfermés dans des « bulles ». Internet nous propose des sujets dont on s'intéresse déjà et des pdv qui sont déjà les nôtres. Pq ? À cause des algorithmes.
Ça a tendance à fragmenter l'espace public plutôt que de favoriser l'échange, le dialogue, le débat… Pourtant, dans son architecture, internet articule bien les 2 conditions d’Habermas :
l’absence de contrainte sur l’expression vue comme l’un des + gros avantage du web
la force intégratrice de la discussion → La richesse des réseaux, Yochai Benkler appelle « objection de Babel » le fait que trop de données = gros bazar où il serait impossible de trier l’information de qualité.
En réalité, c’est juste que ça remet en cause la fonction des médias trad qu'on résumait avec l'idée de gatekeepers (ie ceux qui avaient le monopole de l’info). Le nouveau gatekeeper : Google.
C’est donc Google qui va tout trier, en fonction de certains critères. Par exemple : un article qui a beaucoup de citations permet de hiérarchiser les documents scientifiques. D’autres critères sont pris en compte : l’audience (mesurée par le nombre de clics), l’affinité (mesurée par la proximité entre individus se recommandant) ou la vitesse.
II/ L’extension du périmètre des données
Internet fait deux choses pour s’étendre :
met en info le monde
met en signification ce même monde
Pour ce faire : des tonnes de calcul, des techniques d’enregistrement, de codage et de classement. Animé de l’ambition de « digitaliser la vie elle-même » (Rouvroy), le web s’étend en transformant en objet numérique
...