“人工智能+”的风险管控与伦理规范(第1/3页)
现在“人工智能+”早就不是啥新鲜词了,不管是手机里的智能推荐、商场里的人脸识别,还是工厂里的智能机器人,到处都能看到它的影子。但就像咱们用新家电得先搞懂安全按钮一样,“人工智能+”用得越广,背后藏着的风险和伦理问题就越不能忽视。接下来咱们就用大白话,把这些事儿拆解开说清楚,让大家一看就明白。
一、技术风险:ai也会“掉链子”,这三种问题最常见
咱们总觉得ai特别厉害,能算复杂数据、能写文案还能画画,但实际上它也会“犯迷糊”“带偏见”,甚至关键时刻“掉链子”。这部分说的技术风险,就是ai在技术层面容易出的岔子,其中最典型的就是算法偏见、模型幻觉和系统可靠性问题。
1.1
算法偏见:ai也会“看人下菜碟”,不是它故意的,是“学歪了”
先说说“算法偏见”,听着挺专业,其实就是ai在做判断的时候,会不自觉地偏向某一类人,或者对某一类人不友好。比如咱们平时用的招聘app,有些公司会用ai筛选简历,如果一开始给ai“喂”的简历里,大部分都是男性的优秀简历,ai就会误以为“男性更符合岗位要求”,之后再看到女性简历,可能就会不自觉地打低分——这就是典型的算法偏见。
为啥会这样?不是ai有“性别歧视”,而是它学习的“素材”有问题。ai就像个小学生,老师教啥它学啥,如果老师给的教材里本身就有偏向性,那学生学出来肯定也带偏。再比如贷款app,有些ai评估用户信用时,会参考用户的居住地,如果某个区域之前有过较多逾期记录,ai可能就会直接给这个区域的用户打低信用分,哪怕有些用户本身信用特别好,也会被“连累”。
这种偏见带来的麻烦可不小。找工作的女性可能因为ai偏见错失机会,信用好的人可能因为ai偏见贷不到款,甚至在司法领域,如果用ai辅助判断案件,偏见还可能影响判决公平性。所以算法偏见不是小事,得提前发现、提前改。
1.2
模型幻觉:ai会“瞎编乱造”,还说得有模有样
再说说“模型幻觉”,这个更有意思,简单说就是ai会“一本正经地胡说八道”。比如你问ai“某本不存在的书的作者是谁”,它不会说“我不知道”,反而会编一个名字,还会瞎编这本书的出版时间、主要内容,甚至引用里面的“名言”,让你误以为真有这本书。
为啥会出现幻觉?因为ai的核心是“预测下一个字/词该放啥”,它不关心内容是不是真的。比如你让ai写一篇关于“古代某座虚构城市的历史”,ai会把它学过的所有“古代城市”“历史事件”的信息拼在一起,凑出一篇逻辑通顺但完全虚构的内容。就像咱们做梦的时候,会把现实里的片段拼在一起,形成一个假的场景,ai的幻觉差不多就是这个意思。
这种幻觉的危害也挺大。如果医生用ai查医学资料,ai编一个假的治疗方案,可能会耽误病人;如果学生用ai写论文,ai编一些假的引用文献,论文就会出大问题。所以现在用ai查信息,尤其是重要信息,一定要多核对,不能全信。
1.3
系统可靠性:ai也会“死机”“出错”,关键时刻靠不住
最后是“系统可靠性”问题,简单说就是ai系统可能会突然出故障,或者在复杂场景下出错。比如自动驾驶汽车,平时在空旷的马路上跑得挺好,但遇到暴雨、大雾天气,或者路上突然出现一个塑料袋、一只小动物,ai可能就会判断失误,要么突然刹车,要么没及时避让,容易引发事故。
再比如银行的ai转账系统,如果突然遇到网络波动,或者系统里的某个程序出了bug,可能会出现“转账成功但对方没收到”“重复转账”等问题,给用户带来损失。还有咱们用的智能客服,平时能解答一些简单问题,但遇到复杂的投诉、咨询,比如“账户被盗了该怎么办”“订单丢了怎么找回”,ai可能就会“答非所问”,或者直接把问题推给人工,要是人工客服又忙不过来,用户就会特别着急。
为啥ai系统会不可靠?一方面是技术本身的问题,比如ai对复杂环境的适应能力还不够强,遇到没见过的场景就容易“懵”;另一方面是人为因素,比如程序员在写代码的时候出了错,或者系统维护不到位,没有及时更新、修复漏洞。所以不管是用ai开车,还是用ai处理金融业务,都得留好“后手”,比如自动驾驶得有人类驾驶员随时接管,ai转账得有人工审核环节,不能完全依赖ai。
更多内容加载中...请稍候...
本站只支持手机浏览器访问,若您看到此段落,代表章节内容加载失败,请关闭浏览器的阅读模式、畅读模式、小说模式,以及关闭广告屏蔽功能,或复制网址到其他浏览器阅读!
本章未完,请点击下一章继续阅读!若浏览器显示没有新章节了,请尝试点击右上角↗️或右下角↘️的菜单,退出阅读模式即可,谢谢!