• 全国 [切换]
  • 二维码
    展会联盟

    手机WAP版

    手机也能谈生意,信息同步6大终端平台!
    当前位置: 首页 » 行业新闻 » 热点新闻 » 正文

    可信AI及其对教育的启示

    放大字体  缩小字体 发布日期:2025-02-12 15:27:06   浏览次数:1  发布人:59f3****  IP:124.223.189***  评论:0
    导读

    我们正快速进入AI时代,特别是以ChatGPT为代表的新一代生成式AI的横空出世,进一步加速了这一进程。时至今日,AI不再是辅助工具,而是推动科学进步乃至人类进步的强大引擎。然而,随着这一技术在政治、经济和社会等各个领域的大规模运用,它给人类社会带来的风险也进一步增大。为了降低风险,可信AI(trustworthy AI)概念应运而生。这个概念最早出现在欧盟委员会人工智能高级专家组于2019年发布

    nload="this.removeAttribute('width'); this.removeAttribute('height'); this.removeAttribute('onload');" />

    我们正快速进入AI时代,特别是以ChatGPT为代表的新一代生成式AI的横空出世,进一步加速了这一进程。时至今日,AI不再是辅助工具,而是推动科学进步乃至人类进步的强大引擎。然而,随着这一技术在政治、经济和社会等各个领域的大规模运用,它给人类社会带来的风险也进一步增大。为了降低风险,可信AI(trustworthy AI)概念应运而生。这个概念最早出现在欧盟委员会人工智能高级专家组于2019年发布的《可信人工智能伦理指南》之中,如今已为不同领域的政策制定者、技术专家、投资者和伦理学家广泛使用。不过,什么是可信AI?如何让AI可信?可信AI的现实意义是什么?这些问题都有待深入澄清和阐明。

    什么是可信AI

    根据《可信人工智能伦理指南》,可信AI主要由三个部分组成:合法性,即遵守一切适用的法律法规;伦理性,即确保遵守伦理原则和价值;强健性,即从技术和社会角度来看,AI系统不会导致无意图的伤害。该指南主要聚焦伦理性和强健性,并相应提出了七个关键要求:人类能动性和监督;技术强健性和安全性;隐私和数据治理;透明性;多样性、非歧视和公平;环境和社会福祉;问责。

    然而,这个指南没有深入分析可信AI到底意指什么,而且过于产业导向,因此遭遇了一些严厉的批评。大多数批评者都持有这样一种观点,即AI不能满足信任的某个关键特征(例如,它没有意图或情感,无法积极回应人类的需求),因此,它不是信任的对象。布雷森(J. Bryson)认为,信任关系只适用于同类之间,而AI与人类不是同类,且AI不是问责的对象。苏厝普(M. Sutrop)认为,信任是一种双向的沟通过程,而人与AI的沟通通常只是单向的。雷安(M. Ryan)检查了各种信任理论,发现AI都无法满足这些信任的关键特征,例如AI无法被情感动机所驱动。因此,他认为应该完全放弃“可信AI”范式,转而全面拥抱可靠AI路径。莱因哈特(K. Reinhardt)则指出,“把可信性变成一个不能应用或无法操作的时髦用语”。除了概念层面的批评之外,有一些批评指向提出这一概念的动机。最严厉的一种批评就是道德洗白问题(the issue of ethics washing)。所谓道德洗白,指的是通过道德语言化解批评和抵制政府监管,而不是真正致力于道德行为。概言之,道德洗白就是通过滥用或误用道德规范来阻碍必要法规的执行。

    尽管如此,可信AI概念仍具有可靠性、可解释性、负责任等其他概念所没有的独特优势。可信性是一个典型的威廉姆斯意义上的厚实概念,不仅能够用于描述AI具有哪些可信的特征,同时还能赋予可信AI以价值和规范内涵。当然,上述担忧和批评并非无的放矢,我们在阐明AI的可信性时,一定要给出清晰的界定,并突出可信性与可靠性、可解释性或负责任等概念之间的分野和联系。

    基于胜任力的可信AI

    AI是一种我们有意设计、发展和制造的认知技术。一方面,它区别于其他技术,本身自主地掌控了知识创造和生产的过程。另一方面,它区别于人类认知者,本身没有动机和意图。在这个意义上,AI是一种“认知技术”,一种“准人类行动者”。由此,人与AI的信任关系不仅是一种认知关系,也是一种道德关系,我们最好从人际信任角度来理解这种关系。在笔者看来,郝丽(K. Hawley)的承诺观(the commitment account)可以发展成为一个非常好的可信AI模型。

    根据承诺观,可信的人就是要确保承诺与行动的匹配,避免作出无法兑现的承诺。因此,可信性并不要求我们承担自己能力之内尽可能多的承诺,除非这些承诺是由我们现有承诺产生的。这种消极的可信性概念可以推广到AI:一个可信的人,在承诺已经作出时就要积极兑现承诺,而在作出新的承诺时则要三思而后行;类似地,一个可信的AI,在设计完成之后就要能够实现其设计意图,而在其设计之初则要三思而行。在设计之初,工程师们必须进行充分的伦理审查,并且进行系统的验证和评估。当然,AI不会像人类那样作出有意承诺,但它的设计功能实际上也可以理解为一种“承诺”。我们可以把这种承诺称为“源自—设计的承诺”(design-sourced commitments)。承诺观的核心是胜任力(competence),即胜任地(不)给出和兑现承诺的能力或倾向,所谓胜任力就是一种把事情做好的能力。正如郝丽指出,获得可信性的方法可能不止一种,且与大大小小的能力和承诺相兼容,只要后者不超过前者就行。概言之,在评估可信性时必须把承诺与胜任力视为一个整体:一个AI给出的“承诺”是否恰切,取决于它具有什么样的胜任力;反之,一个AI具有什么样的胜任力,源于AI在设计中作出了何种“承诺”。

    综上,基于胜任力的AI可信观试图阐明:在承诺层面上,作为人类设计的产物,AI浸透着人类的种种意图和目的;因此,我们必须把价值和规范原则内化于AI设计之中,成为AI“承诺”的一部分;在胜任力层面上,作为自主运行的技术,AI能够自主地分析和评估环境并采取行动,因此我们必须在实际运用的过程中不断进行评估、反馈、优化和改进,以期AI能够以最佳表现实现人类之意图并创造福祉。最后,承诺和胜任力并不是孤立的,而应该被视为一个相互规定的有机整体,AI也必须在这一意义上是可信的。

    可信AI之于教育的启示

    在数据枯竭的境况下,可信AI是未来人工智能发展的重要方向。可信AI的发展必将深刻影响人类生活的方方面面。在此,我们聚焦可信AI对于教育的启示。当前,我国全面布局人工智能,而在教育领域的布局是其中的重中之重,它关乎我国人工智能发展的未来。2024 年 11 月 18 日,教育部发布《关于加强中小学人工智能教育的通知》,鼓励各地各校将AI教育纳入课后服务项目和研学实践,构建系统化课程体系,实施常态化教学与评价。那么,AI教育应该如何展开呢?在笔者看来,基于胜任力的可信AI模型能够为解决这个问题提供一些关键思路和方向。

    根据胜任力模型,AI教育的核心焦点是如何培养学生的胜任力,尤其是能够把AI胜任力融入自身胜任力之中的胜任力。在这个意义上,AI时代教育培养的目标之一就是培养可信的学生,即具有AI胜任力的学生。在AI时代,学生必须具备四项核心胜任力。第一,以人为本的思维能力。AI的设计需要符合人类的需求和价值观,对其使用要持有批判性思维,确保其应用不会削弱人类自身的自主性和决策能力。第二,人工智能的伦理能力。学生需负责任地使用、合乎道德地设计并安全地实践AI,了解AI技术可能带来的伦理挑战。第三,人工智能的技术能力。学生要掌握关于AI的基础知识和技能,并通过实践活动和项目来加深对AI技术的理解。第四,人工智能的解决能力。在人工智能时代,要重点培养学生解决问题的能力、创造力和设计思维。学生需要学习如何识别、定义和解决问题,并利用AI技术实现解决方案。与之相应,教师也要具有与之配套的一系列AI胜任力。

    AI技术的普及将深刻改变教育的本质和目标。与以往的科技革命不同,AI驱动的科技革命直指人类自身。AI不仅是人类智能的延伸,而且拥有了取代人类绝大部分智能的潜力。由此,人类自身的存在价值遭遇了前所未有的严峻挑战,未来教育必须直面这种挑战。从胜任力和可信性角度,我们可以洞见到回应挑战的一种思路。

    作者系上海财经大学哲学系教授

    来源:中国社会科学报

    责任编辑:常达

    新媒体编辑:苏威豪

    如需交流可联系我们


     
    (文/匿名(若涉版权问题请联系我们核实发布者) / 非法信息举报 / 删稿)
    打赏
    免责声明
    • 
    本文为昵称为 59f3**** 发布的作品,本文仅代表发布者个人观点,本站未对其内容进行核实,请读者仅做参考,如若文中涉及有违公德、触犯法律的内容,一经发现,立即删除,发布者需自行承担相应责任。涉及到版权或其他问题,请及时联系我们154208694@qq.com删除,我们积极做(权利人与发布者之间的调停者)中立处理。郑重说明:不 违规举报 视为放弃权利,本站不承担任何责任!
    有个别老鼠屎以营利为目的遇到侵权情况但不联系本站或自己发布违规信息然后直接向本站索取高额赔偿等情况,本站一概以诈骗报警处理,曾经有1例诈骗分子已经绳之以法,本站本着公平公正的原则,若遇 违规举报 我们100%在3个工作日内处理!
    0相关评论
     

    (c)2008-现在 nm0.com All Rights Reserved.