#privacidad

sursiendo@diasp.org
sursiendo@diasp.org
asrafil@pod.geraspora.de

Configuración de un proxy en LAN/WLAN

enter image description here

Un proxy es, en el más sentido estricto de la palabra, un intermediario, si suponemos que es un programa o dispositivo que actúa de intermediario (en una red de ordenadores) entre un servidor, siendo éste el objetivo de la otra parte, en este caso, el cliente.

Suponiendo el caso que tengamos tres máquinas, vamos a acuñar el nombre de máquina A al cliente, B para el Proxy y C para el servidor. El cliente (A) desea conectarse al servidor (C) como normalmente se haría, pero antes de que la petición pueda llegar a su destinatario, ésta pasa hacia el Proxy (B) y de este último al servidor.

Esquema de un proxy

Sus usos son relativos a cada cliente, pero entre los más caprichosos podríamos mencionar necesidades de lo más variopintas:

https://www.hackplayers.com/2022/04/configuracion-de-un-proxy-en-lanwlan.html
#gnu #linux #gnulinux #privacidad #seguridad

sursiendo@diasp.org
asrafil@pod.geraspora.de

Detienen a un activista francés gracias a su IP: fue entregada por el servicio de correo cifrado #ProtonMail tras una orden judicial

enter image description here

Un activista francés, que aboga por la ecología, ha sido arrestado por las autoridades suizas, después de que su IP fuese desvelada por ProtonMail como consecuencia de una orden judicial que les obligaba a ello. Que las autoridades tengan información de servicios de internet no es nada nuevo, pero en este caso tenemos que ProtonMail tiene como principal valor que es un servicio de correo electrónico "ultra privado", creado por el CERN (Organización Europea para la Investigación Nuclear) y con sede en Suiza.

El arresto del activista tuvo lugar después de que las autoridades del país alpino pidiesen a ProtonMail la IP de este activista, mediante una orden legal a la que no cabía apelar o rechazar. En el caso de ProtonMail, en el que los usuarios confían por su supuesto respeto a la privacidad, el debate siempre abierto sobre la privacidad de una persona y el cumplimiento de la ley gana aún más polémica.

¿Qué había hecho el activista para ser arrestado en Suiza? Según las informaciones publicadas por ProtonMail, la orden que les llegó de las autoridades hablaba de "crímenes serios". De acuerdo con informaciones oficiales, este activista participó en protestas en Paris durante el verano de 2020 contra la gentrificación de la ciudad. Para tal protesta se ocuparon plazas y edificios en la capital francesa y, para organizar la movilización se usó una cuenta de mail registrada en ProtonMail.

https://www.genbeta.com/actualidad/detienen-a-activista-frances-gracias-a-su-ip-fue-entregada-servicio-correo-cifrado-protonmail-orden-judicial
#seguridad #privacidad

asrafil@pod.geraspora.de

Cifrado en #WhatsApp no siempre equivale a privado: #Facebook examina millones de partes de los chats, según ProPublica

enter image description here

ProPublica ha publicado un reportaje en el que detallan, tras una larga investigación, múltiples formas en las que supuestamente Facebook debilita la privacidad de los dos mil millones de usuarios de WhatsApp.

La publicación afirma que cuando Facebook dice que nadie fuera de un chat, ni siquiera la misma WhatsApp, puede leer o escuchar los mensajes, no dicen la verdad a pesar de que la empresa ofrezca y publicite constantemente el cifrado de extremo a extremo de los mensajes.

https://www.genbeta.com/mensajeria-instantanea/cifrado-whatsapp-no-siempre-equivale-a-privado-facebook-examina-millones-partes-chats-propublica
#seguridad #privacidad

lfajardo@encanarias.info

Construyamos, carta abierta a amigos y extraños

Queridos amigos:

De dónde venimos...

Hace ya más de un año que nos vimos obligados, llevados por la pandemia, a hacer frente al desembarco masivo de tecnologías que invaden la privacidad de nuestros hogares. Como profesor monté un #Jitsi para dar mis clases, colaboré más que me enfrenté a las políticas de mi universidad, y junto a otros compañeros terminamos montando el embrión de #EDUCATIC, que hoy gestiona la plataforma de videoconferencias libre (BigBlueButton) con la que impartimos docencia, con interés de los compañeros (impartimos un curso a profesorado al que se inscribieron 170) y el beneplácito del Rectorado. Seguimos avanzando porque queda mucho por hacer.

Nos vemos este sábado...

Hoy quiero compartir con ustedes el resultado de un bonito trabajo colectivo [1], la organización de #FLISoLTenerife2021. Fue hace casi dos meses que me llamó Patricio (ya tendrán ocasión de conocerlo) para enredarme pensé entonces en un evento "de esos loquinarios", una fiesta de instalación que él ha venido organizando otros años... Lo que empezó con cierto escepticismo, movido por el respeto que se ha ganado con su seriedad y buen hacer en #EDUCATIC, o en su tiempo de director de la Oficinal de software Libre de la #ULL (@oslull@txs.es), casi me obligaban a arrimar el hombro. Una vez más tenía razón, ha sido magnífico. He descubierto una comunidad iberoamericana, algunos muy próximos, otros muy lejanos, pero todos unidos organizando un evento que, por las circunstancias que atraviesa el planeta, es casi en todos sitios virtual y, con ello, se puede disfrutar de lo mejor de cada uno, bien en directo, bien acudiendo al material que quedará colgado...

Hay explicaciones de todo tipo, para que sepas usar tecnología que te libera de seguir a los gigantes de la información, los datos y la manipulación. Si valoras que tu teléfono, tu ordenador, o tu lavadora, te den la información a ti, y no la reutilicen esos gigantes para intentar inducirte comportamientos (casi siempre con éxito, créeme)... si quieres ver qué es lo que hace esa enorme comunidad de libertarios y libertadoras; de luchadoras, #hackers y #ciberpunks; de #ciberactivistas, y militantes en derechos humanos, las libertades civiles o la democratización tecnológica; los adalides de la cultura libre, del gobierno abierto, del #FLOSS; los enciclopedistas del siglo XXI, los del open data,... Todo un mundo que puedes usar en casa, para retocar fotografías, para compartir con tus seres queridos, para organizar tu oficina, para hacer #vídeos, #cine, #música; el mundo del #podcast, las redes alternativas a toda esa morralla comercial que se ha impuesto sin razones ni argumentos tecnológicos y en contra de nuestros valores...

Presentando la Fundación, sucesora de EDUCATIC...

Te invito a mi charla [2], a las 12 de este sábado [3], sobre el trabajo que hemos hecho un grupo de profesores constituyendo la Asociación EDUCATIC, Tecnologías para la Educación y Transparencia Tecnológica [4], una de cuyas finalidades es constituir una fundación que garantice la continuidad del proyecto: txs.es, correo libre y seguro, redes sociales libres y seguras, herramientas para el trabajo que respeten nuestros valores (y nuestras leyes, claro), y cómo no, aplicaciones para la docencia. Queremos seguir trabajando para que los centros educativos en España utilicen tecnología ética [5], que enseñen a nuestra juventud el potencial de la tecnología, sin hacerlos usuarios cautivos de plataformas de captación de datos y consumo tecnológico.

Te contaré cómo, pero hay mucho más [6]: dos salas, una dedicada a principios, ética, valores; otra a aspectos técnicos y soluciones concretas.

FLISoL Tenerife 2021:

En la sala uno [3] escucharás
-- ¿porqué no dejas tus datos en la nube, tienes algo que esconder?
-- Pues claro que sí, y eso es bueno
Se hablará de datos médicos y software libre, de organizaciones ciudadanas,... de tu papel como usuario, y como conciudadano.... si tú quieres, hasta dónde tú quieras.
En la dos [7] estarán las soluciones concretas: cómo gestionar las citas o las estadísticas en un trabajo de investigación, o cómo usar (y contribuir) a #Wikidata o #Wikipedia, por nombrar las más asequibles, a temas más técnicos como diseño electrónico libre, o arquitecturas de servicios,... aunque se inicia también dando alternativas a las redes sociales "que se aprovechan de ti".
Y todavía nos quedará tiempo para conocernos en el "Barraquito Time", o en la sala 3, dedicada a "entablar pequeñas tertulias entre los participantes al FLISoL Tenerife 2021".

Los ponentes son excepcionales, casi todos tienen una larga trayectoria, y todos un sólido compromiso con aquello que comparten, y muchísima ilusión. Seguro que recargamos pilas, lo verás en el debate que cierra el evento, sobre cultura libre. Si, además, quieres tener un certificado de asistencia, de la Fundación General de la Universidad de La Laguna, puedes inscribirte aquí[9].

--
Notas y enlaces:
1.- Hablaremos de ese trabajo colectivo mañana miércoles con @podcastlinux, podrá oirse luego aquí
2.- https://txs.es/@flisoltenerife/106040332418719349
3.- Enlace a la videoconferencia de la sala 1: https://encanarias.info/flisol1 y al streaming: https://encanarias.info/streaming1
4.- Página web de la asociación EDUCATIC: https://www.educar.encanarias.info
5.- De alguos de esos aspectos ya se hizo eco Iván Suárez en su estupendo artículo en El Diario, el pasado 7 de febrero, https://www.eldiario.es/canariasahora/sociedad/irrupcion-google-escuela-publica-canaria-alarma-expertos-privacidad-datos_1_7198094.html
Programa de Flisol Tenerife 2021: https://flisol.info/FLISOL2021/Espana/Tenerife
6.- Enlace a la videoconferencia de la sala 2: https://encanarias.info/flisol2 y al streaming: https://encanarias.info/streaming2
7.- Enlace a la videoconferencia de la sala 3: https://encanarias.info/flisol3
8.- https://sede.fg.ull.es/es/curso/detalle/a21030186/festival-latinoamericano-de-instalacion-de-software-libre-flisol-tenerife-2021

Etiquetas: #BigBlueButton #OpenData #GobiernoAbierto #Transparencia #Fundacion #TXS.es #FLISoL #CiberActivismo #Ciberhacktivismo #CiberPunk #Educacion #Privacidad #Cifrado #Criptografia #ProteccionDeDatos #RGPD #LOPDgdd #DemocratizacionTecnologica #FeudalismoDigital #SoftwareLibre #CulturaLibre #CienciaEnAbierto #OpenScience #Hacking #Mattermost #Mailu #Nextcloud #Jabber #JabberXMPP #estandarización #estándares #NeutralidadTecnológica #NeutraliddTecnologica #interopreabilidad #seguridad

lfajardo@encanarias.info

Tres retos para la web, según su inventor

Artículo de Tim Berners-Lee en webfoundation.org

Hoy (12/03/2017), la red informática mundial, la famosa WWW de la world wide web, cumple 28 años. Este es un mensaje de Sir Tim Berners-Lee, nuestro fundador e inventor de la web, sobre cómo ha evolucionado la web y qué debemos hacer para asegurar que cumple su visión de ser una plataforma de igualación que beneficia a toda la humanidad.

Hoy se cumplen 28 años desde que envié mi propuesta original para la red informática mundial. Imaginaba la web como una plataforma abierta que permitiría a todas las personas, en todas partes compartir información, tener acceso a oportunidades y colaborar más allá de límites geográficos y culturales. De muchas maneras, la web ha cumplido con esta visión, aunque mantenerla abierta ha requerido de muchas batallas. Pero en los últimos 12 meses, me he sentido cada vez más preocupado por tres nuevas tendencias que creo que debemos abordar para que la web cumpla con su verdadero potencial como herramienta que sirve a toda la humanidad.

1) Hemos perdido control de nuestra información personal

El modelo de negocios actual de muchos sitios web ofrece contenido libre a cambio de información personal. Muchos estamos de acuerdo con esto -aunque a menudo aceptamos largos y confusos documentos con términos y condiciones- pero fundamentalmente no nos importa que se recopile algo de información a cambio de servicios gratuitos. Pero no estamos viendo un truco. Cuando nuestra información se conserva en lugares patentados, la perdemos de vista, perdemos los beneficios que podríamos obtener si tuviéramos control directo sobre esta información, y eligiéramos cuándo y con quién compartirla. Es más, a menudo no tenemos ninguna manera de dar a conocer a las empresas qué información preferiríamos no compartir –sobre todo con terceros– pues los términos y condiciones se toman o se dejan.

La recopilación de información generalizada por parte de las empresas tiene otros impactos. A través de la colaboración -o coacción- con empresas, los gobiernos también observan cada vez más todos nuestros movimientos en línea, y con la aprobación de leyes extremas que atentan contra nuestros derechos a la privacidad. En regímenes represivos, es fácil ver el daño que se puede causar –pueden arrestar a los blogueros o matarlos, y pueden monitorear a opositores políticos. Pero incluso en países donde creemos que los gobiernos tienen en mente el mejor interés de sus ciudadanos, esto simplemente va demasiado lejos todo el tiempo. Tiene un efecto negativo sobre la libertad de expresión y evita que se use la web como espacio para explorar asuntos importantes, como problemas delicados de salud, sexualidad o religión.

2) Es muy fácil difundir información errónea en la web

Hoy en día, la mayoría de personas encuentra noticias e información en la web por medio de apenas unas cuantas redes sociales y motores de búsqueda. Estos sitios ganan más dinero cuando hacemos clic en los enlaces que nos muestran. Y eligen qué mostrarnos basándose en algoritmos que adquieren ese conocimiento a partir de nuestra información personal, que extraen constantemente. El resultado final es que esos sitios nos muestran contenido en el que creen que haremos clic, lo que significa que la información errónea, o ‘noticias falsas’ (“fake news”), algo sorprendente, sobrecogedor o diseñado para apelar a nuestras preferencias, se puede esparcir como reguero de pólvora. Y a través del uso de ciencias de datos y ejércitos de bots, quienes tienen malas intenciones pueden engañar al sistema para difundir información errónea y obtener un beneficio económico o político.

3) La publicidad política en línea necesita transparencia y entendimiento

La publicidad política en línea se ha convertido rápidamente en una industria sofisticada. El hecho de que la mayoría obtenga su información de apenas un puñado de plataformas y la creciente sofisticación de los algoritmos que sacan provecho de abundantes reservas de información personal, significa que ahora las campañas políticas están elaborando anuncios individuales dirigidos directamente a los usuarios. Una fuente sugiere que durante el periodo electora estadounidense de 2016, diariamente se presentaban hasta 50,000 variaciones de anuncios en Facebook, situación a la que es casi imposible dar seguimiento. Y hay sugerencias de que algunos anuncios políticos –en Estados Unidos y alrededor del mundo- se están usando de maneras poco éticas –para dirigir a los votantes a sitios de noticias falsas, por ejemplo, o para hacer que potenciales votantes se mantengan alejados de las urnas. La publicidad dirigida permite que una campaña comunique cosas completamente diferentes, posiblemente contradictorias, a diferentes grupos. ¿Es eso democrático?

Estos son problemas complejos, y las soluciones no serán simples. Pero ya podemos observar algunos senderos que nos pueden guiar hacia el progreso. Debemos trabajar junto con las empresas web para encontrar un equilibrio que a partir de criterios de justicia le devuelva un grado de control sobre información a las personas, incluido el desarrollo de nueva tecnología como “data pods” personales de ser necesario y explorar modelos alternativos de ingresos como suscripciones y micropagos. Debemos luchar contra los excesos gubernamentales en leyes de vigilancia, incluso a través de los tribunales, de ser necesario. Debemos rechazar la información errónea exhortando a gatekeepers como Google y Facebook a continuar los esfuerzos por combatir el problema, y también evitando la creación de cualquier órgano central para decidir qué es “verdadero” o no. Necesitamos más transparencia algorítmica para entender cómo se toman decisiones que afectan nuestra vida, y tal vez un conjunto de principios comunes a seguir. Necesitamos con urgencia cerrar el “punto ciego en internet” en la regulación de las campañas políticas.

Nuestro equipo en la Fundación Web trabajará en muchos de estos problemas como parte de nuestra nueva estrategia de cinco años -investigando los problemas con más detalle, elaborando soluciones de políticas proactivas y generando coaliciones para progresar hacia una web que otorgue igual poder y oportunidad a todos y todas. Los exhorto a apoyar nuestro trabajo de la manera que puedan -corriendo la voz, presionando a las empresas y gobiernos o haciendo una donación. También hemos recopilado un directorio de otras organizaciones de derechos digitales en todo el mundo para que también exploren y evalúen apoyar.

Tal vez yo haya inventado la web, pero todos han ayudado a crear lo que es hoy en día. Todos los blogs, artículos, tuits, fotos, videos, aplicaciones, páginas web y más representan las contribuciones de millones en todo el mundo que construyen nuestra comunidad en línea. Todo tipo de personas han ayudado, desde políticos que luchan por mantener la web abierta, organizaciones de normalización como W3C que aumentan el poder, la accesibilidad y la seguridad de la tecnología, y personas que han protestado en las calles. El año pasado, vimos a los nigerianos resistirse a un proyecto de ley de medios sociales que hubiera obstaculizado la libre expresión en línea, clamor popular y protestas en regional bloqueos regionales de internet en Camerún y enorme apoyo público a la neutralidad de la red en India y la Unión Europea.

Se ha necesitado de todos para construir la web que tenemos, y ahora depende de nosotros construir la web que queremos -para todos y todas. Si quieres tener una mayor participación, únete a nuestra lista de correo, colabora con nosotros, únete o dona a alguna de las organizaciones[*] que están trabajando en estos problemas alrededor del mundo.

#democracia #solid #pods #w3c #www #estandarización #libertad #vigilancia #privacidad #neutralidad #NeutralidadDeLaRed #NeutralidadRed #CapitalismoVigilancia #CapitalismoDeLaVigilancia #BernersLee

--

[*] Este enlace no respeta el documento original, para no redirigir a las plataformas que se cuestionan. Hemos replicado la lista de organizaciones, e iremos reelaborando el documento a la vista del original.

lfajardo@encanarias.info

El FloC de Google es una idea terrible

Por Bennett Cyphers,
03.03.2021
Original:
https://www.eff.org/deeplinks/2021/03/googles-floc-terrible-idea

Las cookies de terceros están muriendo, y Google está tratando de
buscarle un reemplazo.

Nadie debería llorar la muerte de la cookie tal y como la conocemos. Durante más de dos décadas, la cookie de terceros ha sido el eje de una industria de vigilancia publicitaria oscura, sórdida y multimillonaria en la web; la eliminación gradual de las cookies de seguimiento y otros identificadores persistentes de terceros debería haberse producido hace tiempo. Sin embargo, a medida que los cimientos se desplazan bajo la industria publicitaria, sus principales actores están decididos a caer de pie.

Google está liderando la iniciativa de sustituir las cookies de terceros por un nuevo conjunto de tecnologías para orientar los anuncios en la web. Y algunas de sus propuestas demuestran que no ha aprendido las lecciones correctas de la actual reacción contra el modelo de negocio de la vigilancia. Este artículo se centrará en una de esas propuestas, el Aprendizaje Federado de Cohortes (FLoC), que es quizás la más ambiciosa y potencialmente la más perjudicial.

El FLoC pretende ser una nueva forma de hacer que el navegador realice el perfil que los rastreadores de terceros solían hacer por sí mismos: en este caso, reducir su actividad de navegación reciente a una etiqueta de comportamiento, y luego compartirla con sitios web y anunciantes. La tecnología evitará los riesgos de privacidad de las cookies de terceros, pero creará otros nuevos en el proceso. También puede agravar muchos de los peores problemas no relacionados con la privacidad de los anuncios comportamentales, como la discriminación y la segmentación predatoria.

El argumento de Google para los defensores de la privacidad es que un mundo con FLoC (y otros elementos de la \"caja de arena de la privacidad\", "privacy sandbox") será mejor que el mundo actual, donde los corredores de datos y los gigantes de la tecnología publicitaria rastrean y perfilan con impunidad. Pero ese planteamiento se basa en la falsa premisa de que tenemos que elegir entre el \"viejo rastreo\" y el \"nuevo rastreo\". No es una cosa u otra. En lugar de reinventar la rueda del rastreo, deberíamos imaginar un mundo mejor sin los innumerables problemas de los anuncios dirigidos.

Nos encontramos en una bifurcación del camino. Atrás queda la era de las cookies de terceros, quizá el mayor error de la Web. Por delante tenemos dos futuros posibles.

En uno, los usuarios pueden decidir qué información compartir con cada sitio con el que deciden interactuar. Nadie tiene que preocuparse de que su navegación anterior se utilice en su contra -o se aproveche para manipularlo- la próxima vez que abra una pestaña.

En el otro, el comportamiento de cada usuario le sigue de un sitio a otro como una etiqueta, inescrutable a simple vista, pero rica en
significado para los conocedores. Su historia reciente, destilada en unos pocos bits, se \"democratiza\" y se comparte con decenas de actores sin nombre que participan en el servicio de cada página web. Los usuarios comienzan cada interacción con una confesión: esto es lo que he hecho esta semana, por favor, trátenme como tal.

Los usuarios y los defensores deben rechazar el FLoC y otros intentos equivocados de reinventar la segmentación por comportamiento. Imploramos a Google que abandone el FLoC y reoriente sus esfuerzos hacia la construcción de una Web verdaderamente amigable para el usuario.

¿Qué es FloC?

En 2019, Google presentó el Privacy Sandbox, su visión del futuro de la privacidad en la web. En el centro del proyecto se encuentra un conjunto de protocolos sin cookies diseñados para satisfacer los innumerables casos de uso que las cookies de terceros proporcionan actualmente a los anunciantes. Google llevó sus propuestas al W3C, el organismo que elabora los estándares de la web, donde se han debatido principalmente en el Grupo Empresarial de Publicidad en la Web, un organismo formado principalmente por proveedores de tecnología publicitaria. En los meses transcurridos, Google y otros anunciantes han propuesto docenas de normas técnicas con temática de aves: PIGIN, TURTLEDOVE,
SPARROW, SWAN, SPURFOWL, PELICAN, PARROT... Y la lista continúa. En serio, cada una de las propuestas de \"pájaros\" está diseñada para realizar una de las funciones del ecosistema de la publicidad dirigida que actualmente realizan las cookies.

FLoC está diseñado para ayudar a los anunciantes a realizar la segmentación por comportamiento sin cookies de terceros. Un navegador con FLoC habilitado recogería información sobre los hábitos de navegación de su usuario, y luego utilizaría esa información para asignar a su usuario a una \"cohorte\" o grupo. Los usuarios con hábitos de navegación similares -por alguna definición de \"similares\"- se agruparían en la misma cohorte. El navegador de cada usuario compartirá con los sitios web y los anunciantes un ID de cohorte que indicará a qué grupo pertenece. Según la propuesta, al menos unos cuantos miles de usuarios deberían pertenecer a cada cohorte (aunque eso no es una garantía).

Si eso suena denso, piénsalo así: tu ID de FLoC será como un resumen sucinto de tu actividad reciente en la web.

La prueba de concepto de Google utilizó los dominios de los sitios que visitó cada usuario como base para agrupar a las personas. A continuación, utilizó un algoritmo llamado SimHash para crear los grupos. SimHash puede calcularse localmente en la máquina de cada usuario, por lo que no es necesario un servidor central para recoger los datos de comportamiento. Sin embargo, un administrador central podría tener un papel en la aplicación de las garantías de privacidad. Para evitar que cualquier cohorte sea demasiado pequeña (es decir, demasiado identificada), Google propone que un actor central pueda contar el número de usuarios asignados a cada cohorte. Si alguna es demasiado pequeña, puede combinarse con otras cohortes similares hasta que haya suficientes usuarios representados en cada una.

Según la propuesta, la mayoría de los detalles están todavía en el aire. El borrador de la especificación afirma que el ID de cohorte de un usuario estará disponible a través de Javascript, pero no está claro si habrá alguna restricción sobre quién puede acceder a él, o si el ID se compartirá de alguna otra manera. FLoC podría realizar una agrupación basada en las URL o en el contenido de las páginas en lugar de en los dominios; también podría utilizar un sistema basado en el aprendizaje federado (como implica el nombre FLoC) para generar los grupos en lugar de SimHash. Tampoco está claro cuántas cohortes posibles habrá. El experimento de Google utilizó identificadores de cohortes de 8 bits, lo que significa que sólo había 256 cohortes posibles. En la práctica, ese número podría ser mucho mayor; la documentación sugiere un identificador de cohorte de 16 bits compuesto por 4 caracteres hexadecimales. Cuantas más cohortes haya, más específicas serán; los identificadores de cohorte más largos significarán que los anunciantes aprenden más sobre los intereses de cada usuario y tienen más facilidad para tomar sus huellas digitales.

Una cosa que se especifica es la duración. Las cohortes de FLoC se recalcularán semanalmente, utilizando cada vez los datos de navegación de la semana anterior. Esto hace que las cohortes FLoC sean menos útiles como identificadores a largo plazo, pero también las convierte en medidas más potentes de cómo se comportan los usuarios a lo largo del
tiempo.

Nuevos problemas de privacidad

FLoC forma parte de un conjunto que pretende llevar los anuncios dirigidos a un futuro que preserve la privacidad. Pero el diseño central implica compartir nueva información con los anunciantes. Como es lógico, esto también crea nuevos riesgos para la privacidad.

Huellas dactilares

El primer problema es la huella digital (fingerprint). La toma de huellas digitales de los navegadores es la práctica de recopilar muchos datos discretos del navegador de un usuario para crear un identificador único y estable para ese navegador. El proyecto Cover Your Tracks de la EFF demuestra cómo funciona el proceso: en pocas palabras, cuantas más formas tenga tu navegador de ser diferente al de los demás, más fácil será tomar una huella digital.

Google ha prometido que la gran mayoría de las cohortes de FLoC comprenderán miles de usuarios cada una, por lo que un ID de cohorte por sí solo no debería distinguirte de otros miles de personas como tú. Sin embargo, eso sigue dando a los rastreadores una enorme ventaja. Si un rastreador comienza con su cohorte FLoC, sólo tiene que distinguir su navegador de otros pocos miles (en lugar de unos cientos de millones). En términos de teoría de la información, las cohortes FLoC contendrán varios bits de entropía, hasta 8 bits, en la prueba de concepto de Google. Esta información es aún más potente dado que es poco probable que esté correlacionada con otra información que el navegador expone. Esto facilitará a los rastreadores la creación de una huella digital única para los usuarios de FLoC.

Google ha reconocido que esto es un reto, pero se ha comprometido a solucionarlo como parte del plan más amplio \"Privacy Budget\" que tiene para hacer frente a la huella digital a largo plazo. Resolver el problema de las huellas dactilares es un objetivo admirable, y su propuesta es una vía prometedora. Pero, según las FAQ, ese plan es \"una propuesta en fase inicial y aún no tiene una implementación en el navegador\". Mientras tanto, Google va a empezar a probar el FLoC este mismo mes.

El fingerprinting es notoriamente difícil de detener. Navegadores como Safari y Tor han participado durante años en guerras de desgaste contra los rastreadores, sacrificando grandes franjas de sus propios conjuntos de características con el fin de reducir las superficies de ataque de las huellas digitales. La mitigación de las huellas dactilares suele implicar la eliminación o la restricción de fuentes innecesarias de entropía, que es lo que es el FLoC. Google no debería crear nuevos riesgos de fingerprinting hasta que no haya averiguado cómo tratar los existentes.

Exposición cruzada de contextos

El segundo problema es menos fácil de explicar: la tecnología compartirá nuevos datos personales con rastreadores que ya pueden identificar a los usuarios. Para que FLoC sea útil para los anunciantes, la cohorte de un usuario revelará necesariamente información sobre su comportamiento.

La página de Github del proyecto aborda esta cuestión desde el principio:

Esta API democratiza el acceso a cierta información sobre el historial de navegación general de un individuo (y, por tanto, sus intereses generales) a cualquier sitio que opte por ella. ... Los sitios que conocen la IIP de una persona (por ejemplo, cuando la gente se registra utilizando su dirección de correo electrónico) podrían registrar y revelar su cohorte. Esto significa que la información sobre los intereses de un individuo puede llegar a ser pública.

Como se ha descrito anteriormente, las cohortes FLoC no deberían funcionar como identificadores por sí mismas. Sin embargo, cualquier empresa capaz de identificar a un usuario de otras maneras -por ejemplo, ofreciendo servicios de \"inicio de sesión con Google\" a sitios de Internet- podrá vincular la información que obtenga de FLoC al perfil del usuario.

Dos categorías de información pueden ser expuestas de esta manera:
1. Información específica sobre el historial de navegación. Los rastreadores pueden ser capaces de aplicar ingeniería inversa al algoritmo de asignación de cohortes para determinar que cualquier usuario que pertenezca a una cohorte específica probablemente o definitivamente ha visitado sitios específicos.
2. Información general sobre datos demográficos o intereses. Los observadores pueden saber que, en general, los miembros de una cohorte específica tienen muchas probabilidades de ser un tipo específico de persona. Por ejemplo, una cohorte concreta puede tener una representación excesiva de usuarios jóvenes, mujeres y negros; otra cohorte, votantes republicanos de mediana edad; una tercera, jóvenes LGBTQ+.

Esto significa que todos los sitios que visites tendrán una buena idea de qué tipo de persona eres en el primer contacto, sin tener que hacer el trabajo de rastrearte a través de la web. Además, como tu cohorte FLoC se actualizará con el tiempo, los sitios que puedan identificarte de otras maneras también podrán seguir la evolución de tu navegación. Recuerde que una cohorte FLoC no es ni más ni menos que un resumen de su actividad de navegación reciente.

Usted debe tener derecho a presentar diferentes aspectos de su identidad en diferentes contextos. Si visita un sitio para obtener información médica, puede confiarle información sobre su salud, pero no hay razón para que tenga que saber cuál es su política. Del mismo modo, si visitas un sitio web de venta al por menor, no debería necesitar saber si has leído recientemente sobre el tratamiento de la depresión. El FLoC erosiona esta separación de contextos y, en su lugar, presenta el mismo resumen de comportamiento a todas las personas con las que interactúas.

Más allá de la privacidad

El FLoC está diseñado para evitar una amenaza muy específica: el tipo de perfil individualizado que permiten los identificadores de contexto cruzado en la actualidad. El objetivo del FLoC y de otras propuestas es evitar que los rastreadores accedan a información específica que puedan relacionar con personas concretas. Como hemos demostrado, el FLoC puede ayudar a los rastreadores en muchos contextos. Pero incluso si Google es capaz de repetir su diseño y evitar estos riesgos, los daños de la publicidad dirigida no se limitan a las violaciones de la privacidad. El objetivo principal de FLoC está en contradicción con otras libertades civiles.

El poder de segmentar es el poder de discriminar. Por definición, los anuncios dirigidos permiten a los anunciantes llegar a algunos tipos de personas y excluir a otras. Un sistema de segmentación puede utilizarse para decidir quién puede ver anuncios de empleo u ofertas de préstamo con la misma facilidad que para anunciar zapatos.

A lo largo de los años, la maquinaria de la publicidad dirigida se ha utilizado con frecuencia para la explotación, la discriminación y el daño. La posibilidad de segmentar a las personas en función de su origen étnico, religión, sexo, edad o capacidad permite la publicación de anuncios discriminatorios para el empleo, la vivienda y el crédito. La segmentación basada en el historial crediticio -o en las características asociadas sistemáticamente a él- permite la publicación de anuncios abusivos para obtener préstamos de alto interés. La segmentación basada en datos demográficos, ubicación y afiliación política ayuda a los proveedores de desinformación por motivos políticos y a la supresión de votantes. Todos los tipos de segmentación por comportamiento aumentan el
riesgo de estafas convincentes.

Google, Facebook y muchas otras plataformas publicitarias ya intentan frenar ciertos usos de sus plataformas de segmentación. Google, por ejemplo, limita la capacidad de los anunciantes para dirigirse a personas en \"categorías de intereses sensibles\". Sin embargo, estos esfuerzos a menudo se quedan cortos; los actores
decididos suelen encontrar soluciones a las restricciones de toda la plataforma sobre ciertos tipos de segmentación o ciertos tipos de anuncios.

Incluso con un poder absoluto sobre la información que se puede utilizarpara dirigirse a quién, las plataformas son demasiado a menudo incapaces de evitar el abuso de su tecnología. Pero FLoC utilizará un algoritmono supervisado para crear sus grupos. Eso significa que nadie tendrá control directo sobre cómo se agrupan las personas. En el mejor de los casos (para los anunciantes), FLoC creará grupos que tengan comportamientos e intereses significativos en común. Pero el comportamiento en línea está vinculado a todo tipo de características sensibles: datos demográficos como el sexo, la etnia, la edad y los ingresos; los \"5 grandes\" rasgos de personalidad; incluso la salud mental. Es muy probable que el FLoC también agrupe a los usuarios según algunos de estos ejes. Las agrupaciones de FLoC también pueden reflejar directamente las visitas a sitios web relacionados con el abuso de sustancias, las dificultades económicas o el apoyo a los supervivientes de traumas.

Google ha propuesto que puede supervisar los resultados del sistema para comprobar si existen correlaciones con sus categorías sensibles. Si descubre que una cohorte concreta está demasiado relacionada con un grupo protegido determinado, el servidor administrativo puede elegir nuevos parámetros para el algoritmo y decir a los navegadores de los usuarios que se agrupen de nuevo.

Esta solución parece tanto orwelliana como un nuevo Sísifo. Para controlar la correlación de los grupos FLoC con las categorías sensibles, Google tendrá que realizar auditorías masivas utilizando datos sobre la raza, el sexo, la religión, la edad, la salud y la situación económica de los usuarios. Cada vez que encuentre una cohorte que se correlacione demasiado a lo largo de cualquiera de esos ejes, tendrá que reconfigurar todo el algoritmo y volver a intentarlo, esperando que no haya otras \"categorías sensibles\" implicadas en la nueva versión. Se trata de una versión mucho más difícil del problema que ya está intentando resolver, y que a menudo fracasa.

En un mundo con FLoC, puede ser más difícil dirigirse directamente a los usuarios en función de la edad, el sexo o los ingresos. Pero no será imposible. Los rastreadores con acceso a información auxiliar sobre los usuarios podrán aprender qué \"significan\" las agrupaciones de FLoC -qué tipo de personas contienen- mediante la observación y la experimentación. Los que se empeñen en hacerlo podrán seguir discriminando. Además, este tipo de comportamiento será más difícil de controlar para las plataformas de lo que ya es. Los anunciantes con malas intenciones podrán negarlas, ya que no se dirigen directamente a las categorías protegidas, sino que se dirigen a las personas en función de su comportamiento. Y todo el sistema será más opaco para los usuarios
y los reguladores.

Google, por favor, no lo hagas

Escribimos sobre FLoC y el otro lote inicial de propuestas cuando se presentaron por primera vez, llamando a FLoC \"lo opuesto a la tecnología de preservación de la privacidad\". Esperábamos que el proceso de normalización arrojara luz sobre los defectos fundamentales de FLoC, haciendo que Google reconsiderara su impulso. De hecho, varias cuestiones en la página oficial de Github plantean exactamente las mismas preocupaciones que destacamos aquí. Sin embargo, Google ha seguido desarrollando el sistema, dejando los fundamentos casi sin cambios. Ha empezado a presentar el FLoC a los anunciantes, presumiendo de que el FLoC es un sustituto \"95% efectivo\" del targeting basado en cookies. Y a partir de Chrome 89, lanzado el 2 de marzo, está desplegando la tecnología para una prueba. Una pequeña parte de los usuarios de Chrome, probablemente millones de personas, serán (o han sido) asignados para probar la nueva tecnología.

No te equivoques, si Google lleva a cabo su plan de implantar FLoC en Chrome, probablemente dará \"opciones\" a todos los implicados. El sistema será probablemente opt-in para los anunciantes que se beneficien de él, y opt-out para los usuarios que se vean perjudicados. Seguramente, Google lo promocionará como un paso adelante hacia la \"transparencia y el control del usuario\", sabiendo perfectamente que la gran mayoría de sus usuarios no entenderá cómo funciona el FLoC y que muy pocos se esforzarán por desactivarlo. Se dará una palmadita en la espalda por haber inaugurado una nueva era privada en la web, libre de la malvada cookie de terceros, tecnología que Google ayudó a extender mucho más allá de su vida útil, ganando miles de millones de dólares en
el proceso
.

No tiene por qué ser así. Las partes más importantes de la "privacy sandbox", como la eliminación de los identificadores de terceros y la lucha contra las huellas dactilares, cambiarán realmente la Web para mejor. Google puede optar por desmantelar el viejo andamiaje de la vigilancia sin sustituirlo por algo nuevo y singularmente perjudicial.

Rechazamos rotundamente el futuro de FLoC. Ese no es el mundo que queremos, ni el que los usuarios merecen. Google tiene que aprender las lecciones correctas de la era del rastreo de terceros y diseñar su navegador para que funcione para los usuarios, no para los anunciantes.

**Nota:* Nos hemos puesto en contacto con Google para verificar ciertos hechos presentados en este artículo, así como para solicitar más información sobre el próximo lanzamiento en pruebas. No habíamos recibido respuesta al momento de publicar este artículo.*
**Traducido al español por* Luis Fajardo \@lfajardo\@txs.es, con asistencia de Deepl.com.*

#FLoC #privacidad #RGPD #futuro #vigilencia #economía #Google #PrivacySandbox #navegadores #NavegadoresWeb #FSF

ilario@joindiaspora.com

<<Llama especialmente la atención la segmentación que quiere hacer este sistema de reconocimiento facial, donde no solo se diferenciará por edad o género, también por el origen étnico, el tipo de ropa, si viajar solos, con niños o en grupos numerosos e incluso el estado de ánimo (felices, tristes, cansados, sin determinar).

No queda ahí la analítica, pues transcurridos los primeros seis meses de vigencia del contrato, se espera que también se puedan analizar comportamientos antisociales como tumultos, peleas y disturbios, así como comportamientos anómalos, vandalismo, graffitis, merodeo o robos. Una vez obtenidos estos datos, el documento hace referencia a que se implementará un sistema de analítica que permita la "predicción anticipada de hechos negativos y comportamientos repetitivos con el estudio de patrones".>>

#españa #camaras #privacidad #renfe

https://www.xataka.com/privacidad/renfe-quiere-vigilar-a-viajeros-reconocimiento-facial-tiempo-real-como-sera-este-sistema-que-puede-ser-discriminatorio

lfajardo@encanarias.info

Una contribución desde el RGPD y los valores europeos a la licencia Creative Commons

Las licencias Creative Commons, en sus distintas combinaciones, y en general otras licencias libres o de cultura abierta, se preocupan de la gestión de los derechos de propiedad intelectual en el mundo digital. Vienen a resolver un importante problema, que además requiere de repositorios donde buscar las obras y que nos garanticen que la licencia ha sido otorgada por el titular de los derechos (a este fin sirve el buscador de la propia Fundación Creative Comons, con su avanzada extensión para navegadores; pero muy especialmente los repositorios públicos que la ley obliga a tener a todas las Administraciones Públicas, y las obligaciones de licenciamiento en abierto[¹]. Sin embargo poco tratamiento ha tenido hasta la fecha, cuando conocemos que podemos hacer uso de una obra, cómo realizar su divulgación en términos de protección de datos. Especialmente los vídeos, en los que se comparte audio e imágenes de sus autores, pueden tener el efecto perverso de que se generen perfiles de usuario en las redes en los que dichos vídeos se compartan referente a sus autores, siendo analizados por la inteligencia artificial de dichas redes, los ritmos a los que mueve las manos, la frecuencia del pestañeo, o cualquier otro extremo (dicho a título de ejemplo), con el que crearán, o más habitualmente engrosarán, los datos personales asociados al perfil del autor (sea o no usuario de la red social o medio de difusión), con evidentes propósitos de mercadotécnica y asesoramiento empresarial (es decir, facilitar decisiones automatizadas en el ámbito del marketing y de una pléyade de decisiones contractuales crecientes). Ese problema, que es el principal que encara el Reglamento General de Protección de Datos[²], no tiene respuesta en dichas licencias, y requieren de una extensión de las mismas. Aquí se realiza una propuesta. Antes, sin embargo, es necesario explicar que la alternativa a dichas redes "chupadatos" son las redes libres y federadas, donde ningún nodo de la red está en control de toda la información, y el usuario tiene capacidad de decisión sobre la expansión que desea a unas y otras publicaciones. Existen alternativas con las mismas funciones a las de las redes comerciales más extendidas. Es lo que se conoce como el Fediverso (PeerTube, Diaspora, Mastodon, PixelFed, entre otros). Es cierto que es previsible que rápidamente las empresas se lancen a instalar nodos, y que algunas realicen análogos tratamientos de datos a aquellos que se pretende evitar. La técnica está ahí, pero es necesario además etiquetar dicho comportamiento deseado por el titular de los datos de forma que sea claro, además de legible de forma automatizada (para obligar al respeto de dichos términos). Por eso proponemos la siguiente extensión:
NRS-FL-E!
NRS significa que no puede distribuirse en redes sociales.
-FL quiere decir que pese a la anterior prohibición, se permite distribuir el contenido en el Fediverso Libre, es decir, redes sociales que integren alguno de los protocolos del Fediverso y no sean comerciales. Si es igual que sean o no comerciales se usará sólo la grafía F.
-E quiere decir que pese a la prohibición anterior (no se puede comunicar la obra en redes sociales), sí puede remitirse el enlace de la misma. La exclamación ! quiere decir que el enlace ha de divulgarse de forma estricta, con cuidado de no hacerlo en redes que hagan tratamiento del contenido de los datos. En caso de duda el enlace deberá protegerse con contraseña, captcha, o alguna otra fórmula que impida el escaneo del contenido por las referidas redes.
En realidad, si no se autoriza expresamente no puede distribuirse en esas redes comerciales. Para permitir su divulgación debe ponerse +RS, y en caso de que sólo se permita difundir en enlace: +RSE

Las siglas en inglés serían: NSN-FF-L!
No Social Networks
- Free Fediverse
- Links !
+RS / +RSE

Esta propuesta es simplemente eso, una primera aproximación, algo más evolucionada de mi primera necesidad de hacer patente el problema con la marca "NRC" de "No en Redes Chupadatos" (seguramente es al menos más elegante), pero está abierta a su evolución y mejora por la comunidad. Lo más importante es hacer ver la importancia de la reutilización en términos de protección de datos, algo de lo que advierten las normas citadas al pie, y a lo que invita la doctrina del TJUE[³], pero a lo que no dan solución, pese a ser uno de los principales problemas sociales que plantean las tecnologías en la actualidad.

Esta extensión en su versión NRS-FF-L! es la que usamos por defecto en el nodo de vídeo (PeerTube)

#CreativeCommons #RGPD #licencias #LicenciasLibres #ProteccionDeDatos #Privacidad #Intimidad #IntimidadPersonal #PropiaImagen #Repositorios #Buscadores #RepositoriosLibres #Licenciar #ComoLicenciar #Extensión #Fediverso #PeerTube #Diaspora #Mastodon #PixelFed

NOTAS:
[¹] Repositorios que se denominan en la ley "espacios de utilidad pública y para todos", obligatorios para la Administración General del Estado desde el 28/07/2006 (según exige la Disposición Adicional Tercera de la Ley 23/2006), extendiéndose a todas las Administraciones Públicas desde el 30/12/2007 (D.A. 16ª de la Ley 56/2007, de Medidas de Impulso de la Sociedad de la Información), teniendo derecho los particulares a publicar en dichos repositorios (D.A. 17ª de la misma Ley), que hoy debe complementarse con la obligación impuesta por una multiplicidad de normas, destacando el Esquema Nacional de Interoperabilidad (ordinal 2º de su artículo 21, aprobado por R.D. 4/2010), y las normas de reutilización de la información pública (artículo 4 e la Ley 37/2007). Las licencias con que deben hacerse esas publicaciones se encuentran originalmente reguladas en . En el ámbito de las universidades, la obligación de publicar en repositorios institucionales se recoge en el artículo 37.3 de la Ley de la Ciencia, obligándose a la interconexión de los repositorios, lo que se lleva a cabo a nivel nacional en Recolecta, integrada a su vez en la red europea OpenAire, con sus correspondientes buscadores y el excelente nivel de sus documentos científicos. Lamentablemente la implementación del cumplimiento de estas normas por las universidades y centros de investigación es muy bajo, en sintonía con la enorme dependencia de mercado editorial de estos. Más en GONZALEZ et. al., "The intellectual property of content published in virtual campuses : what legal and technological aspects should be considered?, RED. Revista de educación a distancia, Murcia, 2017, n. 53 ; pp. 15 ss., https://redined.mecd.gob.es/xmlui/handle/11162/135568; y en CAIRÓS et. al., "Towards effective institutional policies to promote open access in educational resources", Colecciones de Innovación y Tecnología Educativa, RIULL, 2016, http://riull.ull.es/xmlui/handle/915/2120.
[²] Ya he tenido ocasión de explicarlo en numerosos post anteriores. Directamente en "LOPD, sin derechos digitales", de 8/12/2018, pero también en "Google Classroom no es una opción para la Educación en Europa", "Educación y feudalismo tecnológico en tiempo de coronavirus", o "Manifiesto ético del uso de datos y algoritmos, Gobierno de Navarra".
[³] Véase mi comentario a la Sentencia del Tribunal de Justicia de la Unión Europea, de 29-07-2019, en "La Administración Pública no debe usar Twitter, Facebook ni productos de Google".

lfajardo@encanarias.info

Guía rápida para volver a la red.

Hubo un día en que alguien tuvo la idea de coger un servidor (ejabberd [1]) con el que todos chateábamos (en realidad iba más allá de un servidor, hablo del protocolo XMPP, [2] #Jabber #Jabber-XMPP o simplemente #XMPP, pero permítanme simplificar), con independencia de cuál fuera nuestro proveedor… y hacerle una pequeña modificación: que no acepte conexiones de servidores externos, quitó la necesidad de obtener usuario y contraseña (la gente no está en eso), y el usuario pasa a ser el número de teléfono… ¿y la contraseña? Un código que tiene el teléfono (con lo que se puede copiar, ciertamente, pero eso es otra historia...). Lo llamó #WhatsApp, y fue la bomba… Ya es hora de volver al servidor original, por una cuestión de privacidad, porque no necesitamos pasar por el aro (o por el servidor) de una gran empresa que se queda con nuestros datos. Aquí explico cómo hacerlo, de modo telegráfico.

Necesitas dos cosas: un programa con el que conectar, y una cuenta (ya que no se crean automáticamente, nosotros elegiremos usuario y contraseña, y proveedor…).

1) Elegir programa. Yo explicaré aquí Conversations [3], que funciona en #Android. Si quieres un programa para el ordenador, te recomiendo Gajim [4]. En Mac e iOS la cosa está menos desarrollada (o los que hay son de corte empresarial), pero así y todo existen clientes libres con suficientes funcionalidades (Monal o Chat Secure). Puedes elegir cliente en la página xmpp.org [5], o seguir alguno de los manuales que ya existen en la red [6]

2) Crearse la cuenta: Si te he mandado esto, es porque estamos más o menos próximos, y con gusto te “hospedo” una cuenta en los servidores del proyecto Tecnología Para la Sociedad (txs.es, #txs), en tanto esté en modo de prueba. Nos encantaría dar un servicio masivo y abierto a todo el mundo, pero necesitamos primero tener la infraestructura adecuada, y los fondos para financiarla. Si tienes interés, sigue atento, diremos cómo colaborar. Pero nada que lamentar, existen muchos proyectos que se pueden ver en la lista de la asociación austriaca [7], donde puede elegir un proveedor de los altruistas. No nos podemos olvidar que los proveedores de correo más avanzados ofrecen ya junto al alojamiento de correo el servicio de #chat de #jabber (aún no conozco ninguno que habilite las #llamadas y #videoconferencia, pero llegará). Un ejemplo significativo de estos es la alemana Mailbox.Org [8].

3) Ya sólo tienes que “ejecutar” las decisiones. La creación de la cuenta no requiere explicación, y depende del proveedor (no todos tienen registros abiertos). Como dije, explicaré #Conversations. Puede instalarse desde el #PlayStore, pero como personalmente no utilizo los servicios de esas grandes multinacionales, acudo al software alojado en F-Droid [9], otro canal de distribución. Lo mejor es descargar #F-Droid desde su página (el sistema nos advertirá que no tiene permisos y que es peligroso: sólo es peligroso para la multinacional que nos quiere tener enganchados a sus canales, y los permisos se los damos para que se pueda instalar; es un repositirio que surgió como proyecto individual y hoy lo gestiona en abierto una empresa británica [10], y está avalada por colectivos como la Free Software Foundation. Una vez se abre F-Droid por primera vez se descarga el listado de programas disponibles, y ya podremos buscar Conversations y darle a “instalar”. Es lo mejor para tenerla actualizada y de forma gratuita (en el Play Store, modelo empresarial, cuesta un par de euros la aplicación: lo que tampoco está mal para financiar a los desarrolladores, que además la mantienen al día), y después si quieres puedes hacer donación a los desarrolladores. La aplicación es la misma que en el Play Store, incluso mejor, pues se le eliminan algunas cosas que tiene la del Play. La otra opción (no recomendable porque se quedará obsoleta) es instalar directamente la aplicación pulsando en “Descargar APK” en la página de la App del F-Droid [11]. Al ejecutar Conversations podremos registrar una cuenta (lo hace en conversations.im) o introducir la cuenta que nos hemos creado de otro proveedor según explico en el punto 2 de arriba, o si te he pasado claves de prueba… pues eso…

Entiendo que "volver a la red" es #empoderar a los ciudadanos, permitir una #ciudadanía independiente, no controlada ni mediatizada en sus acciones. Y eso no es un cambio pequeño en el funcionamiento de nuestra #sociedad.

Ya tienes la alternativa perfecta y privada al WhatsApp que nos invade... Tú decides.

--
ENLACES:
1.- Ejabberd: https://es.wikipedia.org/wiki/Ejabberd
2.- XMPP: https://es.wikipedia.org/wiki/Extensible_Messaging_and_Presence_Protocol
3.- Conversations: https://conversations.im/
4.- Gajim: https://gajim.org/es/
5.- Clientes jabber/XMPP: https://xmpp.org/software/clients.html
6.- Ejemplo de tutorial: https://comunicatelibremente.wordpress.com/jabberxmpp/
7.- Listado de proveedores: https://list.jabber.at/
8.- Ejemplo de proveedor de pago, Mailbox.Org: https://mailbox.org
9.- F-Droid: https://f-droid.org/es/
10.- Sobre F-Droid: https://f-droid.org/es/about/
11.- Página de Conversations en F-Droid: https://f-droid.org/es/packages/eu.siacs.conversations/

#RGPD #privacidad #soluciones #manual #manuales #LOPDgdd #ejabberd

lfajardo@encanarias.info

Educación y feudalismo tecnológico en tiempo de coronavirus.

Eli y Pedro son maestros, no sabían en qué lío metían a sus alumnos.

Eli es maestra. Está feliz de la vuelta al cole, y siente que esta vez si pasa algo con el covid está más preparada para que sus niños no pierdan clase. El cole ha optado por usar Google Classroom, GMail y el resto de soluciones de dicho entorno. No sabe que cada error que cometan sus niños en clase le está cerrando puertas. Su inteligencia artificial (IA) analiza sin cesar el comportamiento actual, y los comportamientos archivados, para deducir el futuro. Acierte o no, ha condicionado el devenir de sus niños. Lo mismo ocurre con otras soluciones que siguen el modelo de uso por datos.

Pedro, el director del CEIP, había acogido la idea con entusiasmo. Por fin alguien le daba soluciones, y sólo por 20 euros al año. No se dio cuenta de que por ese precio no se puede prestar ese servicio, que es una práctica monopolística para eliminar la competencia, porque lo que interesa son los datos de los niños. Él no está en esas cosas, es normal. En su escuela al Delegado de Protección de Datos ni está ni se le espera, aunque sea obligatorio. Nadie le ha dicho que esas decisiones hay que tomarlas asesorado por este tipo de profesionales. Eso es una de las cosas que quiere el Derecho de la Unión Europea para proteger a sus ciudadanos de la lacra de este mercado de los datos (“protección de datos desde el diseño y por defecto” lo llaman). Es por eso que nadie le ha explicado que el responsable de los datos (su colegio) cuando pide ayuda para su gestión a un tercero (encargado del tratamiento) tiene que tener un contrato que garantice que el centro pueda dar instrucciones sobre la forma de uso de los datos. Él no se ve dándole instrucciones a Google... ni le harán caso, ni el contrato lo dice. No, claro que no ha hecho la evaluación de impacto en derechos y libertades requerido por la normativa, pero sí ha pedido el consentimiento de los padres, siguiendo una plantilla que la empresa tiene disponible en su web... Sí, también eso lo ha hecho mal. El colegio es un servicio público, todos lo tenemos que usar, un padre no puede decidir no llevar a su hijo... y tampoco discriminarlo y marcarlo en la comunidad educativa haciendo que sea el bicho raro que no usa la tecnología elegida por el Colegio. La legitimación de las Administraciones Públicas para usar los datos de los ciudadanos para prestar el servicio no les viene del consentimiento del ciudadano (artículo 6.1.a del RGPD), sino de su competencia para la gestión del servicio (letra e del mismo ordinal y artículo). No tienen que preguntar, lo que tienen es que hacerlo legalmente, fundamentalmente informar de qué tipo de tratamientos realizan con los datos, cómo los gestionan. Los padres no pueden contestar que no, no se les puede hacer correr con ese peso. No les corresponde, y su autorización no exime al responsable del servicio de su correcta elección.

Pedro es víctima de la falta de políticas públicas para implementar nuestras normas. Es consciente de que muy bueno no puede ser. Ha intentado en otros años montar grupos de Telegram en lugar de WhatsApp, informar a los padres con un canal de Twitter… pero no se ha dado cuenta de que con eso ha descuidado el único canal en el que no se reutilizan por terceros los datos de los usuarios: el blog del que les dotó la Consejería de Educación. Sabiendo como saben que hay otros mecanismos modernos, no se explica cómo no le ofrecen una solución rápida de comunicación con los padres. Los medios que ofrece la Consejería son viejos e insuficiente, inutilizables.

Pedro hizo lo mismo que ve hacer a sus políticos, a las Administraciones Públicas, volcados en “irse a la nube”. Precisamente el Cabildo de su isla está con un proyecto piloto para migrar el correo corporativo a una nube pública… Nadie les ha dicho que cuando se envíe información de un expediente proponiendo una sanción a un ciudadano, será leído… e igual que al Consejero le sale en su móvil cuando compra un billete el mensaje de “Veo que vas a volar el día 27 ¿quieres que te lo guarde en la agenda?”, a las entidades de crédito le sale un “yo no recomendaría dar crédito a...” a ese ciudadano… porque ya saben que podría ser objeto de una sanción… Es un ejemplo simple, pero Dani, que trabaja en servicios sociales, ha comenzado a comprender ahora porqué la sociedad parece haber marcado a las víctimas de violencia… él ya no quiere mandar los informes sobre su situación por el correo corporativo, y si lo hace exige cifrarlo… sus compañeros lo miran como un loco… él es consciente de que está protegiendo a personas que ya lo han pasado bastante mal, y tienen derecho a que les dejen rehacer su vida. Dani no sabe cómo hacérselo ver a los que él llama "los de arriba". Tiene un amigo informático que le ha ayudado a comprender el problema, un compañero de trabajo que además le dice que se da la paradoja de que el Cabildo tiene una envidiable nube privada… Vamos, que además es innecesario el viaje.

Estas historias son reflejo de lo que está pasando, de cómo las grandes corporaciones con fortísima influencia en la configuración de nuestras sociedades están atenazando aún más nuestra sociedad, aprovechando la circunstancia, aunque nos hayamos dado normas que no se cumplen. Es fácil darse cuenta, pero es que hay mucho mequetrefe justificando lo injustificable. Hay tecnología alternativa, para hacer lo mismo, y mejor… pero no hay (o no suficientes) políticas públicas impulsándolas. Un ejemplo: el pasado fin de semana fui invitado a impartir una conferencia que titulé “El feudalismo de los datos” [Archive.Org], conectando con una valoración de quien fuera Director de la Agencia Española de Protección de Datos, que hablaba de los señores de los datos, y del capitalismo salvaje de la vigilancia permanente (algo sabrá cuando dice que acoge como buena la definición de nuestro modelo económico como “surveillance capitalism” mantenida por la profesora Zuboff, de la Universidad de Hardvard, y gran número de relevantes especialistas) (pude ampliar el concepto en el taller sobre la App Radar COVID [Archive.Org]). Lo interesante fue que en ese congreso, EsLibre-2020 [Archive.Org], acogido por la Universidad Rey Juan Carlos, se utilizaron programas de fuentes abiertas, plenamente disponibles para los colegios, que no deja rastro a las grandes corporaciones: fue totalmente on-line, grabado al mismo tiempo, con cinco salas en paralelo gestionadas en un único ordenador (ciertamente potente) para unas 300 personas, vídeo, audio, pizarra, escritorio, vídeos pregrabados... todo fue posible fácil. Nadie echó en falta ningún recurso de los ofrecidos por los todopoderosos señores de los datos. Sirva como ejemplo de los proyectos que están tardando en implementarse...

El TJUE una y otra vez tumba dicho modelo de neocapitalismo con el que Estados Unidos protege a sus empresas, por incompatible con los valores europeos (anuló el acuerdo de puerto seguro en 2016 [Archive.Org], y ahora, en julio de 2020, declara inválido el escudo de privacidad [Archive.Org] que pretendía sustituirlo), pero el mercado impone otra cosa, y vuelven a la carga. El mismo Alto Tribunal europeo aclara que las Administraciones Públicas no pueden (o sólo bajo unos muy estrictos requisitos) usar redes sociales, y ahí está el Gobierno habilitando canales de WhatsApp, o la RTVE poniéndolo como forma principal de participar en sus programas... A los poderes públicos, a los políticos, cumplan las leyes, atiendan las actuales emergencias, y creen canales públicos libres para la relación con la ciudadanía, no acrecienten nuestro vasallaje. A la ciudadanía ¿qué tal si nos organizamos? Propongo crear una Fundación que forme, gestione proyectos alternativos, de servicios de red básicos, y formación a la tan necesitada Administración Pública. La tenemos que salvar entre todos, porque ella es la que nos puede salvar a nosotros de este modelo de sociedad al que estamos, hoy por hoy, abocados.

Luis Fajardo López es doctor en Derecho por la Universidad Autónoma de Madrid, ha sido Juez, abogado especializado en TICs, y Delegado de Protección de Datos de la Universidad de la Laguna. Es profesor de Derecho civil de dicha Universidad. @lfajardo@silba.me

[ Versiones de este artículo: PDF | Prensa ]
Este artículo fue publicado originalmente en ElDiario.es, sección Opinión de Canarias Ahora, del 23 de septiembre de 2020: ver

#RGPD #Google #Facebool #AAPP #Administracion #AdministracionPublica #educacion #Classroom #GoogleClassroom #consentimiento #privacidad #legitimacion #EvaluacionDeImpacto #WhatsApp #Telegram #Twitter #surveillance #Capitalism #capitalismo #vigilancia #feudalismo #FeudalismoDeLosDatos #SeñoresDeLosDatos #TJUE #PuertoSeguro #EscudoDePrivacidad #PrivacyShield #SafeHarbour

asrafil@pod.geraspora.de

#VeraCrypt 1.24-Update7 introduce cerca de 30 cambios y estos son los mas importantes

enter image description here

Se acaba de dar a conocer la liberación de la nueva version de VeraCrypt 1.24-Update7, que desarrolla una bifurcación del descontinuado sistema de cifrado de partición de disco TrueCrypt.

VeraCrypt se destaca por reemplazar el algoritmo RIPEMD-160 de TrueCrypt con SHA-512 y SHA-256, aumentando el número de iteraciones de hash, simplificando el proceso de compilación para Linux y macOS y solucionando problemas identificados durante el proceso de auditoría de origen de TrueCrypt.

https://blog.desdelinux.net/veracrypt-1-24-update7-introduce-cerca-de-30-cambios-y-estos-son-los-mas-importantes/
#seguridad #privacidad