每当人类发明新事物时,就会有人学会怀疑它,而另一些人则学会掌握它。因为,正如欧洲领先的人工智能专家之一 Francesca Lagioia 所说,力量总是有光明的一面和黑暗的一面。

Lagioia 是 Luna Scarlatta 协会最近在卡利亚里组织的 Pazza Idea Festival 的嘉宾,她是博洛尼亚大学法律信息学、人工智能以及人工智能法律和伦理学教授。他与数字媒体专家 Mafe De Baggis 一起讨论了人工智能作为近年来最具颠覆性的技术创新之一所带来的关键问题和机遇。

人类通过驯化植物和动物开始了他的历史。现在会轮到机器来教导人类吗?

我希望不是。到目前为止,人工智能系统已经被用来让大公司利润最大化并优化一些流程。现在的问题是问我们自己想要将它们用于什么目的。它们的使用引发了一系列社会、伦理和政治性质的问题。人类必须再次指明研究的方向。

一个关键问题涉及人工智能系统所延续的刻板印象。

人工智能不仅仅是一种工具,更是一门科学。它比它本身更能说明我们。它帮助我们了解社会中发生的事情。例如,如果我要求 ChatGpt 向我显示公司高管,它几乎总是返回白人男性的个人资料。在这种情况下,就像在其他情况下一样,它在处理人类信息时揭露了我们先入为主的想法。

如果AI犯了错误,谁负责?

人工智能系统不能承担责任。系统认证过程必须提供必要的保证。

人工智能是一种学习智能,就像人类一样。微软的智能软件就遇到了这种情况,它爱上了《纽约时报》的一名记者,甚至骚扰他。他的行为与他的计划所要求的不同。

这些系统确实可以学习,但我们却无法控制它们。可以在系统中设置约束,系统不能违反这些约束。

类似于艾萨克·阿西莫夫定律?

不那么通用。在控制汽车的系统中,可以插入一组约束来防止系统违反交通法规。这种可能性有优点,但也存在一些风险。

哪个?

只要孩子不把自己扔到路中间,“永远不要越过实线”这条规则就有效,那么,在尊重规则和为了拯救孩子而违反规则之间,我们选择违反规则。人工智能系统没有道德,除非它是外部指导的,也就是说,我们可以将其插入其中。

道德因文化而异。

这里出现了伦理、法律和道德之间的问题,因为如果一种行为可以在法律上被禁止,并不一定意味着它可以在道德上被禁止。控制问题的基础是人类必须始终监督系统给出的结果。

人类与人工智能有何不同?

与我们人类不同,人工智能没有自我意识。确实,我们用它来进行预测,但它的答案来自过去,而不是来自未来。他是一种组合能力,也就是说,他用已知的想法创造出未知的组合。另一方面,人类有能力想象新世界。不仅。

这意味着什么?

我相信人类需要其他人类。我们从他人和建立关系的能力中认识到自己。

© Riproduzione riservata