Telegram 向澳洲监管机构披露审核细节

Telegram 向澳大利亚 eSafety 监管机构披露了其内容审核机制。私人聊天默认不主动扫描,仅在被举报或内容匹配已知非法数据库时介入。公开内容则通过 AI 主动扫描检测违规内容。审核依赖 AI 模型、自有数据库及用户举报,但无全职审核员,仅由约 150 名外包人员处理,封禁申诉成功率极低。

Telegram 向澳大利亚 eSafety 监管机构披露了其内容审核机制:私人聊天(包括私密群组/频道)默认不主动扫描,仅在被举报或内容匹配已知非法数据库(如 CSAM)时介入。公开内容(如公开群组/频道)则通过 AI 主动扫描检测违规内容。审核依赖 AI 模型、自有数据库及用户举报,但无全职审核员,仅由约 150 名外包人员(覆盖 60 种语言)处理,封禁申诉成功率极低(2%-8%)。这一机制凸显了平台在隐私保护与内容监管间的平衡。