Soul专注青少年成长,多项举措保障社交安全
(资料图片)
Soul是一款于2016年上线的社交应用,其独特的社交玩法一经上线便得到众多年轻人的喜爱,并成为了年轻人重要的线上乐园之一。历经多年发展,Soul成功跻身社交领域头部行列。其间,Soul在不断扩大自身发展的同时,也积极投入到网络安全生态的建设中,并创新了青少年安全生态管理模式,为青少年构筑了清朗的社交空间。
据Soul发布的《2023年第一季度生态安全报告》显示,在2023年第一季度,平台对反电信网络诈骗、社交礼仪引导、用户共治众裁和防治网暴骚扰四个领域进行了专项治理。在这些领域中,Soul不仅维护了用户的基本权益,还积极创新了社区治理模式,进一步增强了平台用户的安全感和体验感。
例如对于网络诈骗,Soul采取定向叫醒机制,针对不同类型的诈骗和易感人群,定向发送提醒,有效阻断了诈骗的流程,大大降低了用户上当受骗的风险。此外,Soul还积极配合公安机关打击诈骗团伙。
在社交礼仪引导方面,Soul在平台上首创了社交礼仪分体系,为每一位用户在Soul的社交互动、文明发言等行为留下礼仪足迹。Soul根据用户在平台各个社交场景下的行为进行打分,对用户的行为规范有一套完整的奖惩机制。上线后,日均骚扰对话行为比体系上线前下降7%,日均因违反社交规则被限制功能使用的人数达2万余人。
对于未成年人群体,Soul更是独具匠心。Soul认识到,互联网平台是信息内容生产传播的重要渠道,同时也是未成年人生活、学习、交友的主要场所。因此,平台应当具有社会属性和公共属性,要尽可能地保护未成年人的权益。
为此,Soul App严格要求18周岁以下用户不能注册,新注册用户初入平台需要进行实名认证,若确认用户为未成年人,则无法进入成年模式。目前,Soul上的未成年用户为过往的存量用户,且占比极低。这批用户只能在青少年模式下使用产品,与成年用户相区隔。
此外,Soul还设立了用户举报机制,并通过智能巡检和人工巡检(如组建“护星队”强化日常巡检)途径,寻找疑似未成年人的相关信息,并引导其进行实名认证。
为了识别并阻断那些有意诱导未成年提供不当内容的人,Soul还依托自身技术能力,建立了一套未成年内容识别模型,能对用户发布的文字、语音、图片等内容进行年龄特征识别。通过这种方式,Soul能有效地识别出“假成年人”,并采取相应的措施保护未成年人的社交安全。
另外,Soul严格把关青少年模式下的内容,不断优化青少年模式内容池,致力于为青少年提供更多优质和正能量内容。为了避免未成年人沉迷网络,Soul还上线了防沉迷机制,未成年人用户仅可在规定时间内(8:00~22:00)访问平台,并对青少年模式中未成年用户的当日累计时长进行了限制,累计时长不超过40分钟,当使用时间超过限制要求时,平台将锁定当前页面,并弹出提醒文案,时刻提醒青少年用户注意健康。
Soul在社交理念与玩法、平台技术创新能力、平台安全生态建设等多方面都获得了业内外的一致认可,这些肯定将成为未来Soul持续发展的源动力。此外,Soul还将持续履行平台的社会责任,携手各方共同推动互联网安全生态建设,以小我奉献大我,共同守护互联网安全。(春晖)
标签: