tiktok
La plataforma ha dado a conocer los resultados de su informe más reciente.pexels

TikTok trabaja en nuevos formatos para clasificar y restringir sus contenidos por edad

Los datos revelan que en total se eliminaron más de 91 millones de vídeos que infringían las normas de TikTok durante el tercer trimestre de 2021

TikTok está trabajando en nuevas formas de clasificar sus contenidos y restringirlos a ciertas audiencias según sus características y temáticas, con el objetivo de que los menores hallen mayores restricciones en el consumo de vídeos dirigidos a usuarios adultos.

Apple

Apple trabaja en "al menos" cuatro nuevos Mac con chips M2, según Gurman

Leer más

La aplicación busca filtrar y organizar los vídeos en función de la "madurez del contenido y áreas temáticas más comfortables" para los usuarios, según ha señalado la jefa de Políticas de Emisión de TikTok, Tracy Elizabeth, en declaraciones recogidas por Engadget.

La directiva ha indicado que, una vez puesto en marcha este sistema de clasificación, los contenidos que hayan sido identificados por contener temática adulta podrán ser restringidos a los usuarios según su edad para evitar que los adolescentes accedan a información dañina.

Por el contrario, para aquellos contenidos que contengan temas "menos maduros" o de temática abierta y no destinada concretamente a los adultos, los usuarios de la plataforma podrán decidir si visualizarlos u omitirlos.

Elizabeth ha señalado que el objetivo es el de ofrecer la posibilidad a los usuarios de elegir "la categoría con la que se sientan más cómodos" y, aunque solo ha comentado que se trata de un sistema "en fase de innovación", podría parecerse a una clasificación similar a la utilizada en películas o videojuegos.

ACTUALIZACIÓN DE SUS POLÍTICAS Y CONDICIONES DE USO

Estas aclaraciones derivan de un reciente comunicado emitido por la plataforma en el que se detalla la actualización de las políticas que TikTok lleva a cabo para promover la seguridad y el bienestar en su servicio.

itch.Io

La plataforma de videojuegos indie itch.io asegura que los NFT "son una estafa"

Leer más

Sobre el aspecto comentado por Elizabeth, desde la plataforma han señalado que cuando encuentran contenido que puede no ser apropiado para todos los públicos, hacen todo lo posible para eliminarlo del sistema de recomendaciones.

"La transparencia con nuestra comunidad es importante para nosotros y estas actualizaciones aclaran o amplían los tipos de comportamiento y contenido que eliminaremos de nuestra plataforma o que no aparecerán en la sección de recomendaciones 'Para ti'", señala el director de Confianza y Seguridad de la plataforma y firmante del escrito, Cormac Keenan.

Estas actualizaciones, que se implementarán en las próximas semanas, incluyen el fortalecimiento de su política de bulos y retos peligrosos para ayudar a evitar que contenidos de este tipo continúen propagándose por la plataforma.

Aunque este aspecto formaba parte de la revisión de sus políticas de uso, con las que desarrolló en noviembre un nuevo recurso para su Centro de Seguridad, Keenan ha subrayado que ahora se destacará en un apartado separado de la categoría de suicidios y autolesiones para que la comunidad "se pueda familiarizar con estas normas".

Además, el directivo ha animado a la comunidad adolescente a colaborar en su trabajo por mantener la seguridad en la plataforma mediante la evaluación de retos 'online' que respondan a cuatro pasos: 'Stop' (Parar, tomar una pausa antes de continuar utilizando TikTok), 'Think' (Pensar, saber si se trata de un reto seguro, dañino o real), 'Decide' (Decidir, si hacerlo o no según el riesgo que implique) y 'Act' (Actuar, para informar a la plataforma sobre desafíos dañinos o engañosos, así como frenar su distribución).

Para fomentar esta comunicación con la plataforma, lanzará la próxima semana una serie de vídeos en los que se pide a los usuarios a seguir estas cuatro directrices desde la página 'Descubrir' y que incluirán la etiqueta #SaferTogether.

d4384ddd922eba6eb5e10671c67a8730d3894d02w

Meta sopesa cerrar Facebook e Instagram en UE tras el fallo sobre privacidad

Leer más

Con la actualización de su apartado de sus políticas de protección de los usuarios, TikTok centrará sus esfuerzos en ampliar su enfoque sobre los trastornos alimentarios. Además de eliminar los contenidos que promuevan los trastornos alimenticios, comenzará a borrar la promoción de prácticas nocivas para la salud con la ayuda de expertos en la materia, investigadores y médicos.

"Nuestro objetivo es reconocer más síntomas, como el exceso de ejercicio o el ayuno intermitente, que con frecuencia no se reconocen como signos de un problema potencial", según se indica en el comunicado.

TikTok también ha aclarado con esta nueva revisión de sus políticas los diferentes tipos de ideologías de odio prohibidas en la plataforma, como el 'deadnaming' -referirse a alguien transgénero con el nombre con el que fue bautizado-, malgenerización -uso de palabras para referirse a una persona que no se corresponden con su identidad de género- o la misoginia, así como el contenido que apoya los programas de terapia de conversión sexual.

Por último, TikTok planea ampliar sus políticas de protección de la integridad de sus usuarios, prohibiendo el acceso no autorizado a la plataforma, así como a las cuentas, el contenido o los datos de los usuarios con fines delictivos.

Con ello, el directivo ha anunciado que este año se están abriendo centros de investigación y monitoreo de incidentes cibernéticos de última generación y recopilación de información en Washington DC, Dublín y Singapur, en el marco del espacio de operaciones Fusion Center.