{"id":624440,"date":"2024-07-01T00:01:05","date_gmt":"2024-07-01T06:01:05","guid":{"rendered":"https:\/\/www.diarioimagen.net\/?p=624440"},"modified":"2024-07-02T22:32:37","modified_gmt":"2024-07-03T04:32:37","slug":"la-red-instagram-expone-contenido-sexual-y-violento-a-usuarios-adolescentes","status":"publish","type":"post","link":"https:\/\/www.diarioimagen.net\/?p=624440","title":{"rendered":"La red Instagram expone contenido sexual y violento a usuarios adolescentes"},"content":{"rendered":"<p>&nbsp;<\/p>\n<h2 style=\"text-align: center;\">Investigaci\u00f3n de <em>The Wall Street Journal<\/em><\/h2>\n<p><em>\u00a0<\/em><\/p>\n<ul>\n<li><em><strong>Su algoritmo es m\u00e1s sugerente que los de <\/strong><strong>Snapchat<\/strong><strong> y <\/strong><strong>TikTok<\/strong><\/em><\/li>\n<\/ul>\n<p>&nbsp;<\/p>\n<div id=\"attachment_624441\" style=\"width: 470px\" class=\"wp-caption aligncenter\"><a href=\"https:\/\/www.diarioimagen.net\/?attachment_id=624441\" rel=\"attachment wp-att-624441\"><img loading=\"lazy\" decoding=\"async\" aria-describedby=\"caption-attachment-624441\" class=\"size-full wp-image-624441\" src=\"https:\/\/www.diarioimagen.net\/wp-content\/uploads\/2024\/07\/red-instagram.jpg\" alt=\"\" width=\"460\" height=\"270\" srcset=\"https:\/\/www.diarioimagen.net\/wp-content\/uploads\/2024\/07\/red-instagram.jpg 460w, https:\/\/www.diarioimagen.net\/wp-content\/uploads\/2024\/07\/red-instagram-240x141.jpg 240w\" sizes=\"auto, (max-width: 460px) 100vw, 460px\" \/><\/a><p id=\"caption-attachment-624441\" class=\"wp-caption-text\">Instagram recomienda con regularidad videos sexuales a las cuentas de adolescentes que parecen interesadas en contenidos subidos de tono, y lo hace a los pocos minutos de que se conecten por primera vez, seg\u00fan investigaci\u00f3n <em>The Wall Street Journal<\/em>.<\/p><\/div>\n<p>&nbsp;<\/p>\n<p>Seg\u00fan una investigaci\u00f3n de <em>The Wall Street Journal<\/em> (<em>WSJ<\/em>) y una acad\u00e9mica de la Universidad Northeastern, Instagram recomienda videos sexuales y violentos a cuentas de ni\u00f1os de 13 a\u00f1os que se conectan por primera vez.<\/p>\n<p>El estudio del rotativo estadunidense descubri\u00f3 que el algoritmo de esta red social es m\u00e1s sugerente que los de Snapchat y TikTok.<\/p>\n<p>Las pruebas, realizadas a lo largo de siete meses que finalizaron en junio, demuestran que la red social ha seguido ofreciendo contenidos para adultos a los menores despu\u00e9s de que la empresa matriz Meta Platforms dijera en enero que estaba dando a los adolescentes una experiencia m\u00e1s adecuada a su edad restringiendo lo que denomina contenido sensible, incluido el material sexualmente sugerente.<\/p>\n<p>Otras pruebas realizadas por el <em>Journal<\/em> y Laura Edelson, profesora de inform\u00e1tica de la Universidad Northeastern, utilizaron una metodolog\u00eda similar, consistente en crear nuevas cuentas con una edad de 13 a\u00f1os. A continuaci\u00f3n, las cuentas acced\u00edan al flujo de v\u00eddeos seleccionados de Instagram, conocidos como \u201creels\u201d. Instagram ofrec\u00eda una mezcla de v\u00eddeos que, desde el principio, inclu\u00edan contenidos subidos de tono, como mujeres bailando de manera sugerente o posando en posturas que realzaban sus pechos. Cuando las cuentas se saltaban otros clips, pero ve\u00edan esos v\u00eddeos sexuales hasta el final, en los reels aparec\u00edan contenidos cada vez m\u00e1s fogosos.<\/p>\n<p>Los creadores de contenido sexual para adultos empezaron a aparecer en apenas tres minutos. Tras menos de 20 minutos viendo reels, los contenidos de las cuentas de prueba estaban dominados por promociones de dichos creadores, algunos de los cuales ofrec\u00edan enviar fotos de desnudos a los usuarios que interactuaran con sus publicaciones.<\/p>\n<p>Como parte de la prueba, <em>The Wall Street Journal<\/em> y la profesora Edelson realizaron la misma prueba en otras redes sociales como TikTok y Snapchat y descubrieron que ninguna de esas dos plataformas suger\u00eda cuentas ni v\u00eddeos de ese tipo. De hecho, las cuentas ni siquiera recomendaban v\u00eddeos inapropiados para su edad despu\u00e9s de buscarlos de manera activa y de seguir a creadores de contenido sexual.<\/p>\n<p>Meta descart\u00f3 que los resultados de la prueba fueran representativos de la experiencia general de los adolescentes. \u201cSe trataba de un experimento artificial que no se ajusta a la realidad de c\u00f3mo los adolescentes utilizan Instagram\u201d, declar\u00f3 el portavoz Andy Stone.<\/p>\n<p>Stone indic\u00f3 que la empresa sigue esforz\u00e1ndose por evitar que sus sistemas recomienden contenidos inapropiados a los menores. \u201cComo parte de nuestro largo trabajo en cuestiones juveniles, establecimos un esfuerzo para reducir a\u00fan m\u00e1s el volumen de contenido sensible que los adolescentes podr\u00edan ver en Instagram, y hemos reducido significativamente estas cifras en los \u00faltimos meses\u201d, dijo.<\/p>\n<p>Mientras tanto, en TikTok, las cuentas de prueba nuevas con edades adultas que ve\u00edan v\u00eddeos subidos de tono hasta el final empezaron a recibir m\u00e1s contenido de ese tipo. Sin embargo, las cuentas de prueba de adolescentes que se comportaban de forma id\u00e9ntica casi nunca recib\u00edan ese tipo de material, ni siquiera cuando buscaba, segu\u00eda y le daba like de forma activa a v\u00eddeos de creadores de contenido sexual para adultos. Un ingeniero de TikTok atribuy\u00f3 la diferencia tanto a unas normas de contenido m\u00e1s estrictas para los usuarios menores de edad como a una mayor tolerancia a los falsos positivos a la hora de restringir las recomendaciones. \u201cPecamos de precavidos\u201d, declar\u00f3 un portavoz de TikTok, a\u00f1adiendo que los adolescentes tienen acceso a un conjunto de contenidos m\u00e1s limitado.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Seg\u00fan una investigaci\u00f3n de The Wall Street Journal (WSJ) y una acad\u00e9mica de la Universidad Northeastern, Instagram recomienda videos sexuales y violentos a cuentas de ni\u00f1os de 13 a\u00f1os que se conectan por primera vez.<\/p>\n","protected":false},"author":3,"featured_media":624441,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_monsterinsights_skip_tracking":false,"_monsterinsights_sitenote_active":false,"_monsterinsights_sitenote_note":"","_monsterinsights_sitenote_category":0,"footnotes":""},"categories":[17,9],"tags":[100216,28807,43677],"class_list":["post-624440","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-especiales","category-mundo","tag-contenido-sexual","tag-instagram","tag-seguridad"],"_links":{"self":[{"href":"https:\/\/www.diarioimagen.net\/index.php?rest_route=\/wp\/v2\/posts\/624440","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.diarioimagen.net\/index.php?rest_route=\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.diarioimagen.net\/index.php?rest_route=\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.diarioimagen.net\/index.php?rest_route=\/wp\/v2\/users\/3"}],"replies":[{"embeddable":true,"href":"https:\/\/www.diarioimagen.net\/index.php?rest_route=%2Fwp%2Fv2%2Fcomments&post=624440"}],"version-history":[{"count":0,"href":"https:\/\/www.diarioimagen.net\/index.php?rest_route=\/wp\/v2\/posts\/624440\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.diarioimagen.net\/index.php?rest_route=\/wp\/v2\/media\/624441"}],"wp:attachment":[{"href":"https:\/\/www.diarioimagen.net\/index.php?rest_route=%2Fwp%2Fv2%2Fmedia&parent=624440"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.diarioimagen.net\/index.php?rest_route=%2Fwp%2Fv2%2Fcategories&post=624440"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.diarioimagen.net\/index.php?rest_route=%2Fwp%2Fv2%2Ftags&post=624440"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}