Business

Guide du contrôle parental sur les réseaux sociaux




Entreprise CNN

Il y a un peu plus d’un an, les entreprises de réseaux sociaux ont été sensibilisées à la manière dont elles protègent ou non leurs plus jeunes utilisateurs.

Lors d’une série d’audiences au Congrès, des dirigeants de Facebook (FB), TikTok, Snapchat et Instagram ont été confrontés à des questions difficiles de la part des législateurs sur la manière dont leurs plateformes dirigent les jeunes utilisateurs vers des contenus préjudiciables pouvant nuire à la santé mentale et à l’image corporelle (en particulier chez les adolescentes). et Il y avait un manque de contrôle parental adéquat et de garanties pour protéger les adolescents.

Ces auditions, qui ont suivi les révélations de la dénonciatrice Frances Haugen dans les soi-disant “Facebook Papers” sur l’impact d’Instagram sur les adolescents, ont incité les entreprises à changer. Les quatre réseaux sociaux ont depuis introduit davantage d’outils et d’options de contrôle parental pour mieux protéger les jeunes utilisateurs. Certains ont également apporté des modifications à leurs algorithmes, par ex. B. en incitant les adolescents à regarder des contenus moins sensibles et en augmentant leurs efforts de modération. Cependant, certains législateurs, experts des médias sociaux et psychologues affirment que les nouvelles solutions sont encore limitées et qu’il reste encore beaucoup à faire.

“Plus d’un an après que les journaux de Facebook ont ​​révélé de manière spectaculaire les abus de la technologie, les entreprises de médias sociaux ont pris de petites mesures lentes pour nettoyer leur acte”, a déclaré le sénateur Richard Blumenthal, président du sous-comité pour la protection des consommateurs du Sénat, à CNN Business. “La confiance dans la Big Tech a disparu depuis longtemps et nous avons besoin de vraies règles pour assurer la sécurité des enfants en ligne.”

(adsbygoogle = window.adsbygoogle || []).push({});

Michela Menting, directrice de la sécurité numérique de la société d’études de marché ABI Research, a convenu que les plateformes de médias sociaux “offrent très peu de substance pour contrer les maux auxquels leurs plateformes sont confrontées”. Ses solutions, a-t-elle dit, obligent les tuteurs à activer divers contrôles parentaux, tels que : B. ceux destinés à filtrer, bloquer et restreindre l’accès, ainsi que des options plus passives, telles que. B. Outils de surveillance et de surveillance fonctionnant en arrière-plan.

Alexandra Hamlet, une psychologue clinicienne basée à New York, se souvient avoir été invitée à une table ronde il y a environ 18 mois pour discuter des moyens d’améliorer Instagram, en particulier pour les jeunes utilisateurs. “Je ne vois pas beaucoup de nos idées mises en œuvre”, a-t-elle déclaré. Les plates-formes de médias sociaux, a-t-elle ajouté, doivent travailler pour “améliorer encore les contrôles parentaux, protéger les jeunes des publicités ciblées et supprimer les contenus objectivement préjudiciables”.

Les entreprises de médias sociaux présentées dans cet article ont refusé de commenter ou n’ont pas répondu à une demande de commentaire sur les critiques selon lesquelles il faut faire plus pour protéger les jeunes utilisateurs.

Pour l’instant, les tuteurs doivent apprendre à utiliser le contrôle parental tout en se rappelant que les adolescents peuvent souvent contourner ces outils. Voici un aperçu de ce que les parents peuvent faire pour assurer la sécurité de leurs enfants en ligne.

Suite aux retombées des documents divulgués, Instagram, propriété de Meta, a interrompu son plan très critiqué de publier une version d’Instagram pour les enfants de moins de 13 ans et s’est concentré sur la sécurisation de son service principal pour les jeunes utilisateurs.

Il a depuis lancé un centre d’éducation pour les parents avec des ressources, des conseils et des articles d’experts sur la sécurité des utilisateurs, et a introduit un outil permettant aux tuteurs de voir combien de temps leurs enfants passent sur Instagram et de fixer des limites de temps. Les parents peuvent également obtenir des mises à jour sur les comptes suivis par leurs adolescents et sur les comptes qu’ils suivent, et voir et être avertis lorsque leur enfant met à jour ses paramètres de confidentialité et de compte. Les parents peuvent également voir quels comptes leurs adolescents ont bloqués. La société propose également des didacticiels vidéo sur l’utilisation des nouveaux outils de surveillance.

Une autre fonctionnalité encourage les utilisateurs à faire une pause dans l’application, par exemple en leur suggérant de respirer profondément, d’écrire quelque chose, de consulter une liste de tâches ou d’écouter une chanson après un certain temps. Instagram a également déclaré qu’il adoptait une “approche plus stricte” du contenu qu’il recommande aux adolescents et les pousserait activement vers d’autres sujets, comme l’architecture et les destinations de voyage, s’ils s’étaient engagés trop longtemps dans n’importe quel type de contenu.

Le centre de sécurité de Facebook propose des outils et des ressources de surveillance, tels que des articles et des conseils d’experts de premier plan. “Notre vision pour Family Center est de permettre à terme aux parents et aux tuteurs d’aider leurs adolescents à gérer leurs expériences avec les technologies Meta à partir d’un seul endroit”, a déclaré Liza Crenshaw, porte-parole de Meta, à CNN Business.

Le hub propose également un guide des outils parentaux VR de Meta de ConnectSafely, une organisation à but non lucratif dédiée à aider les enfants à rester en sécurité en ligne, pour aider les parents à parler à leurs adolescents de la réalité virtuelle. Les tuteurs peuvent voir quels comptes leurs adolescents ont bloqués et accéder aux outils de surveillance, ainsi que permettre à leur adolescent de télécharger ou d’acheter une application bloquée par défaut en fonction de leur évaluation, ou bloquer des applications spécifiques qui peuvent être inappropriées pour leur adolescent.

En août, Snapchat a lancé un guide et un hub pour les parents visant à donner aux tuteurs plus d’informations sur l’utilisation de l’application par leurs adolescents, y compris à qui ils ont parlé au cours de la semaine écoulée (à l’exclusion du contenu de ces conversations à divulguer). Pour utiliser cette fonctionnalité, les parents doivent créer leur propre compte Snapchat et les adolescents doivent s’inscrire et donner leur autorisation.

Bien qu’il s’agisse de la première incursion officielle de Snapchat dans le contrôle parental, certaines mesures de sécurité étaient en place pour les jeunes utilisateurs, telles que : B. l’exigence selon laquelle les adolescents doivent être des amis communs avant de pouvoir communiquer entre eux et l’interdiction d’avoir des profils publics. Les adolescents ont leur outil de partage de position Snap Map désactivé par défaut, mais ils peuvent également l’utiliser pour partager leur position en temps réel avec un ami ou un membre de la famille, même si leur application est fermée pour des raisons de sécurité. Pendant ce temps, un outil Friend Check Up encourage les utilisateurs de Snapchat à vérifier leurs listes d’amis et à s’assurer qu’ils veulent toujours rester en contact avec des personnes spécifiques.

Snap a précédemment déclaré qu’il travaillait sur plus de fonctionnalités, telles que B. Permettre aux parents de voir quels nouveaux amis leurs adolescents ont ajoutés et leur permettre de signaler en privé les comptes qui peuvent interagir avec leur enfant. Il travaille également sur un outil qui donnerait aux jeunes utilisateurs la possibilité d’informer leurs parents s’ils signalent un compte ou un contenu.

La société a déclaré à CNN Business qu’elle continuerait à s’appuyer sur ses capacités de sécurité et à intégrer les commentaires de la communauté, des décideurs politiques, des défenseurs de la sécurité et de la santé mentale et d’autres experts pour améliorer les outils au fil du temps.

En juillet, TikTok a annoncé de nouvelles façons de filtrer les vidéos pour adultes ou “potentiellement problématiques”. Les nouvelles garanties attribuent un “niveau de maturité” aux vidéos contenant des sujets potentiellement matures ou complexes. Il a également lancé un outil pour aider les gens à décider du temps à consacrer aux TikToks. L’outil permet aux utilisateurs de définir des pauses régulières pour le temps d’écran et fournit un tableau de bord indiquant le nombre de fois que l’application a été consultée, une répartition de l’utilisation de jour et de nuit, et plus encore.

L’application vidéo abrégée populaire comprend actuellement un hub d’appariement familial que les parents et les adolescents peuvent utiliser pour personnaliser leurs paramètres de sécurité. Un parent peut également lier son compte TikTok à l’application de son adolescent et définir des contrôles parentaux, y compris le temps qu’il peut passer sur l’application chaque jour. limiter l’exposition à certains contenus ; décider si les adolescents peuvent rechercher des vidéos, des hashtags ou du contenu en direct ; et si leur compte est privé ou public. TikTok propose également son guide du gardien sur la meilleure façon pour les parents de protéger leurs enfants sur la plateforme.

En plus des contrôles parentaux, l’application restreint l’accès à certaines fonctionnalités aux jeunes utilisateurs, comme B. Messages en direct et directs. Une fenêtre contextuelle apparaît également lorsque les adolescents de moins de 16 ans sont prêts à publier leur première vidéo, demandant qui peut voir la vidéo. Les notifications push seront limitées après 21h00 pour les utilisateurs de compte âgés de 13 à 15 ans et après 22h00 pour les utilisateurs âgés de 16 à 17 ans.

La société a déclaré qu’elle ferait davantage pour faire connaître ses capacités de contrôle parental dans les jours et les mois à venir.

Discord n’a pas comparu devant le Sénat l’année dernière, mais la plate-forme de messagerie populaire a été critiquée pour la difficulté de signaler un contenu problématique et la capacité des étrangers à se connecter avec de jeunes utilisateurs.

En réponse, la société a récemment mis à jour son centre de sécurité, où les parents peuvent trouver des instructions sur la façon d’activer les paramètres de sécurité, des FAQ sur le fonctionnement de Discord et des conseils sur la façon de parler aux adolescents de la sécurité en ligne. Certains outils de contrôle parental existants incluent une option pour interdire aux mineurs de recevoir une demande d’ami ou un message direct de quelqu’un qu’ils ne connaissent pas.

Pourtant, il est possible pour les mineurs de se connecter avec des inconnus sur des serveurs publics ou dans des chats privés si la personne a été invitée par quelqu’un d’autre dans la pièce ou si le lien du canal est placé dans un groupe public auquel l’utilisateur a accédé. Par défaut, tous les utilisateurs – y compris les utilisateurs âgés de 13 à 17 ans – peuvent recevoir des invitations d’amis de n’importe qui sur le même serveur, ce qui leur ouvre alors la possibilité d’envoyer des messages privés.


Blog In 2021 joker0o xyz

Leave a Reply

Your email address will not be published. Required fields are marked *

Back to top button
google.com, pub-5512825866040041, DIRECT, f08c47fec0942fa0