在数字时代,如何正确地引导未成年人安全上网,真正做到护苗成长是每个互联网企业的重要课题。Soul作为深受年轻人喜爱的社交平台,始终把未成年人网络安全作为重中之重,为未成年人构建了全面的未成年人网络保护体系,推动构建清朗的网络空间,保障未成年人的网络安全。
近日,Soul发布《2024年第二季度Soul生态安全报告》。报告显示,该季度Soul对未成年用户识别模型进行了重要迭代,显著提高了识别及保护未成年用户能力。
目前,Soul平台不允许18岁以下的用户注册账号。对于可能存在的少数未成年存量用户,Soul通过实施一系列保护策略、先进的年龄识别技术和有效的举报系统,迅速识别并引导这些账号切换到专为青少年设计的"青少年模式"。
Soul迭代未成年识别模型,由单条消息识别拓展至复杂场景多垂类识别,大幅度识别潜在的未成年用户;强制注销不满14岁低龄未成年用户,进一步优化青少年模式;针对未成年用户活跃情况,将青少年模式中“今日自闭”功能生效时长延长至7天。Soul还提供了隐私保护和陌生对话过滤等功能,以最大限度地保障未成年用户的网络安全。
在数据方面,第二季度Soul推出了40多项未成年识别和保护策略,这些策略在识别虚假成年人身份方面取得了高达98.0%的贡献率,进一步证明识别策略的有效性和精确性。
当代未成年人是网络时代原住民,互联网在帮助其成长、丰富其生活方面发挥着重要作用,Soul作为互联网企业,积极承担社会责任,构建完善的未成年人网络保护体系,引导和保护未成年人正确使用网络。在未来,Soul仍将不断完善生态安全建设,积极防范各种网络安全问题,保护广大用户社交安全,同时,Soul也将持续保护未成年人用户,促进未成年人在文明有序的网络环境中健康快乐地成长。