vcrooks
New member
- Registrado
- 27 Sep 2024
- Mensajes
- 47
«Tienes una empresa que a todos los niveles tiene una corrupción moral muy profunda y no sé realmente cómo podemos confiar a nuestros adolescentes a una compañía así. Estamos ante un producto que está diseñado para facilitar daños a menores…En el fondo estamos ante una trituradora de humanidad, tritura los controladores de contenidos, tritura a los menores que ven sus productos y tritura a los papás y mamás», explica Arturo Béjar a ABC. Él sabe cuál es la verdadera posibilidad de que a tu hijo le pase algo malo cuando entra en las redes y denuncia cosas que muchos no sabíamos sobre los botones que hay en las redes sociales.Su nombre está en boca de todos. Es el exdirectivo que conoce las entrañas de Facebook (hoy llamada Meta) mejor que muchos y se atrevió a denunciarlos ante el Senado de Estados Unidos . Béjar ha sido fundamental para que los fiscales pudieran destapar lo que realmente hace esta empresa al explicar por qué es la mayor maquinaria de daño que existe actualmente en el mundo . Por ejemplo, ¿sabías que el botón para denunciar contenido inapropiado en Meta no sirve para nada, es falso? esto es lo que dice Béjar. «Ellos han creado un ámbito en el cual la Dark web ya vive en Instagram . Y a raíz de eso viene el mayor alcance que ha tenido en la vida de todos, porque cuando una niña de 8 años ve que otra niña pone un video sexualizado y este vídeo tiene 250.000 visualizaciones, lo que le estás enseñando es que si quiere vídeos que tengan vistas lo que tiene que hacer es prostituirse ». Y añade que como padre o madre deberías un día preguntar a tu hijo: «Cuál es el peor vídeo que has visto en redes, y les garantizo que lo que van a ver va a ser terrible», sentencia.Noticia Relacionada Delito para la UE La IA genera material para pederastas que la UE quiere perseguir: «Se están creando algunas de las cosas más atroces que existen» Alexia Columba Jerez La pseudopornografía infantil es un fenómeno creciente y sus usuarios intercambian manuales para eludir las restriccionesBéjar a través de programas como 'Salvados' y otros medios quiere que sepamos algo que ignoramos en todo su alcance. Que esa red social que tiene 3.000 millones de usuarios , según datos de DataReportal, y que parece tan cotidiana, omnipresente y llena de vídeos de gatitos y cosas superfluas es todo menos un juego de niños. Eso solo es una parte, la que como internautas vemos, luego está el lado que les toca visualizar a los controladores de contenidos a los que le llegan todos los vídeos y filtran los peores, según las directrices marcadas por Meta u otras tecnológicas. Si ya lo que vemos en la red puede ser chocante, imagínense lo que no vemos, pero sigue estando ahí, generándose a cada instante. Los moderadores oyen los llantos y ven las gotas de sangre del cuchillo y lo que han hecho con él en sus pantallas, pero no son los únicos.«No quieren saber»Béjar fue director de ingeniería de Facebook en el grupo 'Protect & Care' y se encargaba de desarrollar herramientas para detener comportamientos maliciosos en la red. Durante un tiempo abandonó la compañía y cuando volvió en 2019 descubrió que todo lo que había desarrollado lo habían borrado. Y los datos que obtuvo sobre la magnitud del daño en Meta eran algo inesperado. «Uno de cada cinco niños reciben contenido pornográfico que no quieren en los últimos siete días, uno de cada ocho niños reciben contacto sexual no apropiado que no quieren en los últimos ocho días, que uno de cada cinco niños se siente peor con la imagen de su cuerpo en los últimos siete días y que uno de cada cinco recibe contenido violento», afirma Béjar. Imagina uno de cada ocho cada semana de millones de adolescentes.Lo que pueden llegar a ver los niños es horrible abcCuando le preguntas por qué se dan estas cifras y no pasa nada al respecto, Béjar contesta: «Son cosas que Meta podrían prevenir, sus vídeos crean adicción, pero cuanto más tiempo pases con el producto, más beneficio obtiene. Lo hacen por dinero, y en cuanto al contenido de suicidios o violaciones no quieren saber de ellos y no los previenen. Porque como compañía no quieren tener el conocimiento de que una niña la está contactando un pederasta. No quieren saber que los niños están siendo extorsionados, y no solo eso sino que además lo hacen muy difícil de denunciar. Actúan muy despacio y los jóvenes están muriendo y esto no es cuestión de dinero es cuestión de valores », señala. Exhorta que todos deberíamos estar enterados de estas cifras y esas compañías ser transparentes . Para que los padres supieran donde se están metiendo sus hijos. «La realidad de esos videos que les están recomendando a nuestros adolescentes es terrible. Yo hice unas pruebas, tomé una cuenta de un niño de 13 años que no buscaba nada en particular. Vió un vídeo de cómo alguien se tropezaba y se caía, y en menos de 10 minutos esa cuenta me estaba recomendando un vídeo de alguien que había saltado de un puente se le había roto la cuerda e iba a morir. Y cuando está a punto de golpear contra el suelo le cortan los últimos dos segundos. Ahí hay un mundo de contenido violento, profundamente pornográfico, vejatorio que irónicamente no incluye desnudez, y que se le está recomendando a menores y no debería ser así», explica.Durante sus declaraciones ante el Senado de Estados Unidos, Béjar habló con las familias afectadas por los vídeos de Meta. Aún recuerda el padre de una hija que después de ver miles de contenidos depresivos caminó siete pasos y se suicidó. La madre que se encontró a su hijo muerto tras visualizar un blackout challenge- un juego de contener la respiración-y que cada semana se mete en Meta o TikTok y sigue encontrando esos vídeos. O la mujer cuyo hijo murió por drogas adulteradas que sacó su teléfono y le dijo: «Mira, estoy poniendo en Instagram el nombre de una droga y me está autocompletando la gente que lo vende». El senador Lindsey Graham le dijo a Mark Zuckerberg: «Tienen sangre en sus manos».Borrón y cuenta nueva, sin 'botón del pánico'Béjar cuenta que todo lo que su equipo hizo para prevenir que un niño que está viviendo bullying en las redes se sienta solo y puedas ayudarle a navegar desapareció . «Los autores de ese trabajo era el llamado 'Equipo de compasión', pero hubo una junta en la cual, el jefe dijo no lo necesitamos, la compasión es responsabilidad de todos. Pero lo que yo sé de la vida y lo que sé de esta industria es que algo que es responsabilidad de todos no es responsabilidad de nadie», apunta.«Investigamos los botones que existen para denunciar contenido inapropiado y encontramos que en muchos casos no hacían nada» Arturo Béjar Ex ingeniero de Meta Explica que cuando ves a una niña de 13 años con apenas ropa, estás poniendo ese vídeo porque mucha gente los ve. «Es promovido por el algoritmo y por cómo está diseñado el producto». Esos vídeos tienen cientos de miles de vistas y miles de likes, si ellos como compañía no dieran premios por poner vídeos así, con vistas, si no lo promovieran la gente encontraría otras imágenes que poner», dice Béjar.Zuckerberg se disculpa ante las familias con víctimas de abcPensemos en lo fácil que sería poner un botón para que el niño pueda denunciar que esta persona me está acosando, me está incomodando, esta persona no es quien dice ser y está pretendiendo ser un adolescente. «Mi hija de 14 años me dijo que muchas veces recibía mensajes de adultos que se hacían pasar por niños y trataba de denunciarlo. Pero ese botón no existe en Instagram . La empresa quiere evitar resolver los problemas que su producto causa. Si un adolescente muere por el defecto de un coche se hace una investigación en profundidad y la empresa responsable resuelve el problema del vehículo. Por qué aquí no», apunta Béjar. Fernando Checa, profesor de la Universidad Internacional de La Rioja, confirma que ese botón no existe para los menores. «No hay, vamos a decir, un botón del pánico, ante una situación de acoso para que automáticamente alguien pudiera tomar cartas en el asunto». Y añade que, en general, el problema ahora mismo es que a la hora de denunciar contenido inapropiado para cualquier internauta le supone un proceso lento, y además un tanto engorroso , por lo que muy pocos denuncian. «Meta dice nosotros hacemos lo que podemos, pero pueden hacer mucho más», dice Checa. Béjar revela que hay una cosa que las compañías llaman fricción . En la cual quieren hacer difícil que hagas algo porque no quieren que lo hagas, pero quieren poder decir que tienen un botón que te ayuda a decir que contenido no quieres ver. «Pero resulta que cuando estábamos analizando que hacía la gente cuando le pasaban cosas malas en las redes sociales, investigamos esos botones y encontramos que en muchos casos no hacían nada. Como mucho dicen gracias por apretar el botón y esa información o reporte cae en un hoyo y se pierde. Cuando el sistema de denuncias estaba teniendo demasiados reportes decidieron poner un botón azul que no remitía las denuncias, pero el internauta creía que sí. El botón gris sí mandaba la reclamación de la gente, pero eso solo sabíamos los del diseño de producto», explica. Béjar dice que habló con la persona que creó ese botón, que le dijo que se sentía mal de haberlo hecho, pero era lo que tenía que hacer. «Dónde está la responsabilidad de que alguien te está pidiendo ayuda y es alguien del cual tú estás sacando dinero », afirma Béjar.El desconocido nivel superior y la impunidadLos controladores de contenido cuando se encuentran con material hiperviolento, suicida o de abusos lo mandan a un nivel superior. Pero, ¿cuál es ese nivel, dónde van todos esos vídeos o qué hace Meta con ellos? Si los denunciasen ¿no sabríamos sobre todo ello? A este respecto Béjar nos contesta que según su experiencia los borran. Checa opina igual. «Como en '1984' de George Orwell, el protagonista está reescribiendo la historia permanentemente y aquellos actos que no interesan se borran, no existen. Es una vía muy rápida», dice Checa.Béjar sostiene que debería haber una transparencia total sobre estos procesos de control de contenidos y muchas veces se trata de hacer las preguntas oportunas . «Estas compañías mienten diciendo que los padres tienen que estar tranquilos porque previenen el contacto no apropiado. Pero dime la métrica, qué porcentaje de adolescentes recibieron un contacto no apropiado, dime cómo pueden lidiar con eso y cuánto lo vas a reducir. Esa es la única conversación que debería ser aceptable con estas compañías», afirma el ingeniero. Si no, señala que vas a seguir encontrándote el vídeo real de una niña de 8 años que dice «a ti te gusta cuando me arrodillo y doblo mi espalda». Ese vídeo tiene 150.000 visualizaciones. «Se normaliza algo inaceptable y los creadores de ese contenido saben que funciona», señala. Y con la inteligencia artificial el problema se amplifica porque es capaz de crear material hiperrealista que tiene el mismo efecto que un vídeo real. Impacto psicológico para el moderador de contenido que tiene que revisarlo todo y ver el vídeo hasta el final, y repercusiones para los internautas que se encuentran ese tipo de vídeos porque el se los recomienda. Y la IA es capaz de colarse entre las reglas y a futuro será capaz, ya lo es ahora, de crear millones y millones de vídeos en una hora. Tanto Béjar como el profesor Checa nos confirman que a día de hoy no hay suficientes controladores de contenidos como para revisar este tipo de material y sin embargo, todo el peso está cayendo sobre ellos y el protocolo que existe es opaco . Jordi Serra, experto en Seguridad informática y seguridad de redes de la UOC nos explica que esa tecnología irá a más, pero serán en pocos casos, los que la tecnología- el algoritmo- marque como dudosos.«El rol de los moderadores de contenidos debería ser, y es una tragedia que no sea así, ayudar a entrenar algoritmos inteligencias artificiales para parar este tipo de contenidos. En cambio son triturados mentalmente por Meta. Controlar esto no ataca la libertad de expresión y tampoco es verdad esa idea que para tener lo buenos es necesario tener lo malo de algo. Zuckerberg se tendría que sentar unas semanas a mirar lo que ven los moderadores de contenido», apunta Béjar.A la cuestión de por qué todo esto sigue ocurriendo si hay denuncias e investigaciones, Béjar señala que el mundo dejó que estas compañías se volvieran demasiado poderosas. Explica que la ley todavía no sabe cómo abordar esta complicidad de las modernas plataformas. «Esas compañías no quieren que nadie les diga que hacer, pese a que son un producto defectuoso». Lo que necesitamos son cifras claras y facilitar un botón del pánico. Denunciar todo esto ha tenido un coste personal para Béjar, pero él insiste: «¿Qué no harías como padre para proteger a los hijos? Y en cuanto a la pregunta de cómo sería un futuro donde ninguna de estas medidas de prevención se llegaran a tomar, él contesta: «Ya vivimos en él».
Por qué vuestros hijos no están a salvo, un secreto revelado: «Estamos ante una trituradora de humanidad, tritura a los menores y a los padres»
Arturo Béjar, exdirectivo de Meta, explica a ABC «la corrupción» de una de las empresas más poderosas del mundo
www.abc.es