#algorithme

bliter@diaspora-fr.org

La descente aux Enfers d' #Internet - #LeVide

top

Imaginez juste revenir 70 ans en arrière et on vous dit que dans le futur vous pourrez depuis chez vous: acheter n’importe quoi, parler avec n’importe qui ou savoir absolument tout ce que vous voulez, juste avec un seul outil.

Clairement on dirait de la science fiction, ça à l’air d’être incroyable mais vous vous demandez quand même: Est-ce que ça peut mal tourner ?

https://www.youtube.com/watch?v=7ewhSGQ29gc
#smartphone #ordiphone #web #plateforme #facebook #tiktok #algorithme

frenchhope@diaspora-fr.org

Ada Lovelace : la princesse des algorithmes ⬅️ URL principale utilisée pour la prévisualisation Diaspora* et avec plus de garantie de disponibilité.

Archivez vous même la page s'il n'existe pas encore d'archive et évitez ainsi les pisteurs, puis ulilisez µBlockOrigin pour supprimer d'éventuelles bannières qui subsisteraient sur la page sauvegardée.

💾 archive.org

#culture #histoire #numérique #informatique #femme #adalovelace #algorithme

‼️ Clause de non-responsabilité v1.0

frenchhope@diaspora-fr.org

Aux algorithmes citoyens ! - La Vie des idées ⬅️ URL principale utilisée pour la prévisualisation Diaspora* et avec plus de garantie de disponibilité.

Archivez vous même la page s'il n'existe pas encore d'archive et évitez ainsi les pisteurs, puis ulilisez µBlockOrigin pour supprimer d'éventuelles bannières qui subsisteraient sur la page sauvegardée.

💾 archive.org

#algorithme #politique #démocratie #morale #éthique #numérique #automatisation

‼️ Clause de non-responsabilité v1.0

salinger3@diaspora-fr.org

À VOIR ABSOLUMENT : Dans leurs yeux : la France à l'heure de la reconnaissance faciale

https://invidious.fdn.fr/watch?v=JEEOcwOAKng

#Amnesty lance une campagne pour interdire la #reconnaissance faciale en France, leur vidéo de lancement est très bien faite et flippante.

Partagez, Alertez, parlez en à vos élus, députés, sénateurs.
Il en va de notre vie privée.
La technologie et les IA et les algorithmes ne doivent pas remplacer les humains.

https://www.amnesty.fr/petitions/la-france-ne-doit-pas-devenir-la-championne-de-la-surveillance

Le Parlement doit légiférer pour l'interdire au plus vite.
Le gouvernement passe en force via des décrets ministériels et se trouve hors la loi vis à vis de l'Europe.

https://www.radiofrance.fr/franceculture/podcasts/un-monde-connecte/amnesty-contre-les-algorithmes-tous-surveilles-a-cause-de-la-loi-jo-2681943

#surveillance #algorithme #JO #macron #darmanin #police #justice #vsa

frenchhope@diaspora-fr.org

Italy introduces entirely automated public tenders - AlgorithmWatch

#italie #politique #économie #algorithme #automatisation #marchépublic #offredappelpublique

‼️ Clause de non-responsabilité : je n'ai pas toujours le luxe d'être perfectionniste, si le site ou la plateforme sur lequel pointe le lien ne vous convient pas ou que vous n'êtes pas protégé contre le pistage, vous pouvez malgré tout bénéficier de l'information ici partagée et faire des recherches ailleurs (peertube, invidious, archive.org, etc.) à l'aide du titre, des mots-clés, du résumé, des commentaires. Il suffit de placer le pointeur sur le titre pour connaître l'URL ou la copier avant de cliquer. Par ailleurs : ce texte est ajouté automatiquement, contrairement au fait de republier un contenu sur une autre plateforme ou de modifier le lien et d'utiliser une interface alternative dont la perrenité n'est pas garantie (ex : nitter abandonné par ses développeurs). Par ailleurs une nouvelle preuve que le mieux est l'ennemi du bien : des gens qui se prétendent de mon bord si l'on en croit leur activité ici, sont pourtant extrêmement méprisants concernant mon activité et prétendent être plus purs dans la qualité de leurs partages, jusqu'à me harceler à ce sujet. Sans doute pour récupérer une audience qu'ils estiment légitime, quels qu'en soient les moyens. Une méthode violente qui crée une lutte interne contreproductive. Désolé par avance si ce genre de commentaire (auquel je pourrais avoir à répondre s'ils sont mensongers ou calomnieux) est publié sur votre timeline, je n'y suis pour rien non plus. Je n'ai pas vocation à être en conflit, ni ici, ni ailleurs.

magdoz@diaspora.psyco.fr

#CAF : L’algorithme de la #honte

https://www.laquadrature.net/2023/11/27/notation-des-allocataires-lindecence-des-pratiques-de-la-caf-desormais-indeniable/

La lecture du code source des deux modèles utilisés entre 2010 et 2018 — la CAF a refusé de nous transmettre la version actuelle de son #algorithme — confirme tout d’abord l’ampleur du système de #surveillance de détection des #allocataires « suspect·es » mis en place par la CAF.

Ce qu'il y a de bien, c'est qu'en fait, il y a un effet miroir à la #croissance exponentielle : de l'autre côté, on n'est pas prêt de toucher le fond non plus... L'abîme, là aussi, c'est infini....
#France #Macron #Politique #LQDN #Pathétique #Pince-moi-que-je-me-réveille #Dystopie #CodeSource #OpenSource

bliter@diaspora-fr.org

Comment #Tinder a fait de l' #amour un #business #toxique - #GaspardG

top

Quand je suis devenu #célibataire, je me suis inscrit sur Tinder. Voici ce que j’ai découvert.

🗃 CHAPITRES
0:00 Je suis célib
1:53 Les ancêtres de Tinder
5:04 Tinder, #Bumble, #Raya et les autres
8:33 Échec et match
11:28 Tinder est une #drogue
16:09 L'amour sous #algorithme
21:14 L'amour est dans le #cloud
22:39 On désinstalle ?
24:55 Fin

https://www.youtube.com/watch?v=bxQ_RngIQBI
#relation #technologie #smartphone #gafam #analyse

gdo-dell@diaspora-fr.org

Vidéo trouvée sur #YouTube et disponible également sur #PrimeVidéo.
Je la trouve intéressante à diffuser pour essayer d'evangiliser 😁 les mécréants 🤣🤣🤣. Je rigole bien sûr mais intéressante pour sensibiliser les personnes à cette surveillance généralisée.

#BigData #Google #Amazon #Facebook #Apple #Surveillance #Sécurité #Cloud #Gafam #BATX #Algorithme #Datamining #LQDN #Numérique #Internet #Société #Totalitarisme #CréditSocial #LogicielLibre #Alternative #QuitterFacebook #QuitterGoogle
Un oeil sur nous. Citoyens sous surveillance

ariadne2022@diaspora-fr.org

Aux Pays-Bas, un #algorithme discriminatoire a ruiné des milliers de familles | Mediapart

👉️ https://www.mediapart.fr/journal/international/111122/aux-pays-bas-un-algorithme-discriminatoire-ruine-des-milliers-de-familles

Aidée d’un algorithme, l’administration fiscale néerlandaise a plongé dans la détresse des dizaines de milliers de familles, à commencer par des mères d’origine étrangère, en leur réclamant indûment des sommes faramineuses. L’État s’avère désormais incapable de réparer.

Les #technologies ne sont jamais neutres. Non, ce n’est pas juste leur usage qui est biaisé, c’est leur conception-même. Le cas des algorithmes chargés de calculer les risques qu’un·e requérant·e de l’aide sociale fraude les institutions étatiques en est un exemple flagrant! Le système hollandais> texte de citation ici illustre parfaitement la manière dont ces logiciels, supposés impartiaux et objectifs, ne font, en réalité, que refléter les mentalités prédominantes de nos sociétés, avec tous les biais dramatiques qui peuvent en découler, et dans ce cas, il s’agit d’une idéologie ultra-libérale, basée sur la notion de méritocratie et l’illusion d’un monde juste, dans lequel, chacun·e démarrerait avec les mêmes atouts et obtiendrait les résultats qu’iel mérite. C’est ainsi qu’une personne qui en serait réduite à demander de l’aide à l’État ne peut, dans une telle vision du monde, n’être que paresseuse, irresponsable, dépourvue de discipline, et il faut donc la surveiller de près pour s’assurer qu’elle ne perçoive pas d’aides indues. Mieux, il faut même essayer de prévoir lesquelles, parmi ces populations qui peuvent demander un soutien, temporaire, sont les plus susceptibles de tricher. Parce que mieux vaut prévenir que guérir, n’est-ce pas. Et tant pis, si des personnes innocentes sont prises dans la nasse et que ces mesures causent des dégâts monstrueux à des populations déjà très précaires et fragiles! On s’en fiche, elles n’auront pas les moyens de réclamer!

Au total, entre 2012 et 2019, 25 000 à 35 000 personnes ont été accusées de fraude, à tort dans 94 % des cas. Parmi elles, une grande majorité d’étrangers ou de binationaux, cibles privilégiées des contrôles, comme le gouvernement a fini par l’admettre. La nationalité comptait comme un facteur de risque pour l’algorithme aveuglement suivi par les agent·es du fisc. Mais son fonctionnement en « boîte noire » et sa dimension « auto-apprenante », qui permettait à l’algorithme d’identifier lui-même des critères associés au risque de fraude, ont masqué la discrimination, comme l’a dénoncé Amnesty International dans un rapport sur ce cas d’école de « machine xénophobe ».

Je ne suis pas étonnée qu’un pays de tradition protestante et libérale ait dérivé vers un tel modèle ultralibéral et donc une forme de surveillance et de punition préventive des populations “non-méritantes”, vues comme de coûteux “boulets”, mais, qu’en tant que bons chrétiens, on ne peut pas non plus abandonner complètement. Ce qui ne veut pas dire qu’on leur doit une charité sans limites, ni contraintes. Parce que la charité “bien-ordonnée”, c’est aussi cela, le protestantisme, du moins, dans sa version la moins charitable, en fait. Le problème est que cette mentalité est en train de se répandre comme une traînée de poudre dans nos sociétés occidentales, notamment en partie en réaction à la globalisation économique, qui a mis en compétition des pays avec un coût élevé de la vie, avec des régions entières du monde où le niveau matériel et social de vie est bien plus bas. La réponse a été alors de resserrer les salaires de ceux qui se trouvent en bas de la pyramide et les boulons budgétaires sur ceux qui peuvent le moins se défendre, soit les populations précaires. Et c’est ainsi qu’un peu partout, les milieux politico-économiques, mais aussi intellectuels et parfois socio-culturels, en viennent à imaginer que des machines arriveront à mieux trier le bon grain de l’ivraie que des humains, dans une perspective de mieux prévoir les budgets et surtout, des économies en toute bonne conscience, puisqu’il s’agit de prévenir les fraudes. Et dans cet exemple, comme dans de nombreux autres, on se rend compte que les fraudeurs représentent une infime minorité, mais ce n’est pas grave, c’est pour la bonne cause, alors, on va faire endosser un risque minime sur les épaules des plus vulnérables, avec des conséquences socio-économiques catastrophiques pour eux. Évidemment, les personnes immigrées, les mères seules, les minorités en tous genres, du fait de leur différence vis-à-vis des “normes” prescrites par l’idéologie ultralibérale qui prédomine, sont conçues comme étant évidemment moins respectueuses de nos lois, puisque “déviante”, que ce soit parce qu’elles n’ont pas su se conformer aux attentes de la société ou carrément parce qu’elles sont considérées comme trop différente et porteuses de valeurs potentiellement contradictoires avec celles qui assurent le bon fonctionnement des institutions.

Les Pays-Bas n’en ont pas fini avec la « Toeslagenaffaire ». Les conséquences psychologiques et sociales sur les enfants, par exemple, soit plus de 10 000 victimes par ricochet, doivent encore faire l’objet d’enquêtes. L’opposition dénonce une introspection de façade du gouvernement, qui a certes démissionné après ce scandale, en janvier 2021… Pour mieux revenir un an plus tard. « Personne n’a vraiment endossé de responsabilité de cette affaire, estime la députée Renske Leijten. L’état d’esprit à la tête de l’administration n’a pas changé, ni la méfiance à l’égard des allocataires sociaux, ni le manque de transparence. »

Une telle conclusion s’impose presque puisque ce ne sont pas les valeurs que reflètent ces algorithmes qui sont remises en cause, mais l’algorithme seul. La solution serait simple: il suffirait d’affiner les algorithmes pour qu’ils se montrent un peu moins racistes, xénophobes, sexistes, etc. Mais, on va quand même continuer avec cette idée que les gens qui ont besoin d’aide, dans nos sociétés actuelles, restent des populations “problématiques”, que l’on doit certes aider, parce qu’on n’est pas des monstres, mais qu’on doit constamment surveiller et tenir fortement en laisse, parce qu’elles ne sont simplement pas fiables et potentiellement malhonnêtes.

#discrimination #justicesociale #racisme #sexisme #aidesociale #assistancesociale #ultralibéralisme #méritocratie #mondejuste #illusion #biais #solutionnisme