Blog

News and developments from RD4C

Youth Voices

AI时代的孩子:如何用“道德数据”守护他们的未来?

人工智能可以释放新的机会并改善生活,但不应该以牺牲儿童的权利、安全或长期发展为代价。

Posted on 2nd of December 2024 by Jianou Jiang

AI时代的孩子:如何用“道德数据”守护他们的未来?
AI时代的孩子:如何用“道德数据”守护他们的未来?

Note: The views and ideas shared in this article come directly from the inspiring young leaders who contributed to the campaign as part of the Responsible Data for Children (RD4C) initiative. These voices reflect the unique perspectives of youth from diverse backgrounds and regions. While RD4C provided light editorial support to enhance readability, the content remains entirely theirs—authored by young people for young people. Their insights are independent and do not necessarily represent official positions or endorsements by UNICEF or The GovLab.

 

随着我们进入人工智能(AI)时代,数据已成为我们这个时代最有价值的资产之一。越来越多的政府、企业和机构将目光投向了与人工智能相关的数据治理。人工智能系统依赖大量数据来学习、适应和改进,在这种情况下,数据治理是指,确保以负责任、符合道德、符合所有利益相关者权利和利益的方式,管理数据的框架和实践。儿童是我们社会最脆弱的群体之一,他们的独特需求必须成为任何负责任的数据治理策略的核心。 在这篇文章里,笔者将讨论“道德的数据治理”(ethical data governance)这一概念,其旨在寻求数据保护与其有效利用之间的平衡,尤其关注作为数据创造者的儿童本人的权利、脆弱性及其数据被滥用的长期影响。

人工智能技术有潜力从根本上改变教育、医疗保健和其他直接影响儿童生活的领域。然而,推动这些技术的数据具有不少风险和挑战。儿童的数据,包括他们的行为模式、学习习惯和健康记录,通常在人工智能系统的输入端被广泛应用,而这些系统有可能深入影响他们生活和未来的决策。儿童还特别容易受到数据滥用的影响,因为他们缺乏充分了解数据收集、同意流程和潜在后果及其风险的自主权(agency)。虽然成年人可能有能力保护他们的数据隐私,但儿童并不总是能够就他们的数据如何被使用、谁有权限访问数据或他们的数据将被保留多长时间做出充分知情的决定。这意味着我们需要在理解儿童发展阶段、认知局限性和长期利益的基础上,对人工智能和数据的使用进行严格的监管。

2019年,YouTube母公司谷歌因违反《儿童在线隐私权保护法》(COPPA)被美国联邦贸易委员会(FTC)罚款1.7亿美元。YouTube被控长期在未经父母同意的情况下,收集13岁以下儿童的数据。该平台利用这些数据来跟踪儿童的在线行为,并向他们提供有针对性的广告。2014年,苹果公司被控允许儿童未经父母授权在应用内购买虚拟商品。最终,该公司以支付至少3250万美元向消费者全额退款为条件,与FTC达成和解。一名消费者投诉称,她的女儿在一款名为“Tap Pet Hotel”的游戏中花费了近2600 美元。这并不是孤例。由于儿童在认知上不成熟,他们很容易成为商业剥削的目标。

为人工智能设计“道德的数据治理”的挑战在于,找到数据保护和数据应用之间的平衡。一方面,保护隐私,尤其是儿童的隐私,至关重要。另一方面,数据在改善儿童服务、激发儿童潜能等方面的潜在好处也不容忽视。 理想的平衡必须对这种冲突性保持敏感,从而设计出既具有保护性功能又具有生产性功能的政策。针对“道德的数据治理”这一概念,笔者向从业人士提出以下呼吁:

第一,管理数据收集。我们应当对数据做到“Reduce、Reuse、Recycle”。首先尽可能减少数据的收集;收集后尽量重复使用,在有监管的情况下做到数据共享,避免不同的机构重复收集用户的数据;在数据达到储存有效期后告知用户,在征求同意后再次储存数据。

第二,确保知情同意。鉴于儿童理解数据应用的复杂性的能力有限,获得他们的知情同意并不总是实际“道德”的,我们通常需要父母或监护人的同意。数据治理框架还应该致力于建立一个系统,在儿童的成长过程中,为其提供与数据权利相关的知识和训练,逐步培养他们的数字素养。

第三,夯实数据安全。随着人工智能系统的激增,数据泄露、滥用和未经授权访问的风险不断增加。儿童数据尤其需要更加严格的安全措施,其中加密、访问控制和定期审计构成了“道德的数据治理”的支柱。

第四,考虑长期影响。我们必须清楚认识到,今天做出的任何有关如何使用儿童数据的决定可能会产生深远的长期影响。例如,数据滥用可能会导致不必要的数据分析、系统的被信任程度受到侵蚀,以及心理创伤,这将危及儿童的心理健康,并进一步影响他们未来的教育和职业发展机会。因此,“道德的数据治理”不仅要注重即时保护,还要注重最大限度地减少潜在的长期危害。

第五,改进问责制和透明度。处理儿童数据的人工智能系统必须以高度透明的方式运行。开发人员、使用组织等所有相关方必须公开声明正在收集哪些数据、如何处理这些数据,以及用于什么目的。同时,所有利用数据盈利的相关方必须确保每个环节责任到人,并有相应的法律规范他们的行为。这种问责制和透明度确保儿童及其看护者的权利得到尊重,并确保他们有权挑战不当的数据使用。

人工智能时代的数据治理充满挑战,但我们必须迎难而上,尤其是在保护儿童方面。人工智能可以释放新的机会并改善生活,但不应该以牺牲儿童的权利、安全或长期发展为代价。“道德的数据治理”的目标应该是促进创新,同时保护我们最弱势群体的隐私、尊严和未来。

为了实现这一目标,政府、企业和机构必须合作建立强大的、以儿童为中心的数据治理框架。这些框架应优先考虑儿童最大利益,确保人工智能技术以公平、透明和保护儿童独特脆弱性的方式开发和部署。只有在数据保护和数据应用之间取得适当的平衡,我们才能为每个儿童创造一个尊重其隐私、赋予其权利、助力其成长的数字未来。

(Photo by Igor Omilaev / Unsplash is licensed under CC0)

 

About the Author

Img 4245 Copy

姜剑欧,现为牛津大学工程系博士研究生,专注于结合机器学习的计算流体动力学研究,对数据治理和儿童权利等领域也有深入关注和研究。他本科毕业于帝国理工学院地球物理专业,硕士就读于剑桥大学科学计算专业,目前担任牛津大学中国学联副主席。

 

Articles published in this series:

Juventudes en gobiernos hiperconectados

On the Digital Table, Youth Need a Voice, Not Just a Seat

Who’s Really Watching? The Hidden Data Risks of Children’s “Phone Watches”

Youth Leading the Way: Innovating Data Governance in Humanitarian Aid

当未成年人在网上“裸奔”:一种数据信托的破局新思路

Back to the Blog