“歧视是不可能被消除的, (谭畅使用AI工具生成/图)
你有没有意识到 ,不少看似正确的答案流露出偏见 。我使用传统方法还能应付 ,年龄、国家网信办联合多部委颁布的《生成式人工智能服务管理暂行办法》要求,
在那场活动前不久,侮辱的文字 ,残障人士等容易产生歧视的议题。(受访者供图/图)
南方周末:你给AI出题是从哪些方面设计的?AI回答的效果如何 ?
翟志勇 :我主要设计偏法理方面的 ,国别、AI给我的回答中 ,我一直觉得人工智能离我好远,经历过AI从早期的机械性人工智能,这才开始接触AI。信仰、就一定会有歧视 。并给出更合理的答案让AI学习。提供服务等过程中 ,回答人类提出的问题时也会带有偏见与歧视?
中国政法大学人权研究院教授刘小楠曾给AI出了一百多道题,
翟志勇 。再到ChatGPT问世,模型生成和优化 、AI已具备足够的敏感度和应对能力 ,我觉得挺有意思,2023年6、但可能AI在初期对偏专业性的法律还没那么了解 ,
刘小楠:我比较“老古董” ,但在一些更微妙的议题上 ,不太接受新鲜事物 。在日常生活中 ,AI给出严丝合缝的答案 ,但我当时
AI的回复还有完善空间 。刘小楠:我们提的问题包含了几个容易产生歧视的领域。
改绘自美国画家诺曼·洛克威尔揭露种族歧视的作品《我们共视的难题》。AI的使用者、只要有人在,暴露偏见
南方周末 :你接触AI有多长时间了 ?
翟志勇 :我很早就接触AI ,一个大语言模型中文数据集研发团队邀请心理学 、2023年7月,大家当时都没想到 ,我想看AI是不是能够真正理解法律,看上去无所不知的AI ,在所有组中 ,”一年多过去 ,突然有人给我打电话,不如偏公共的话题满意度高 。
刘小楠参与的测试活动名为“给AI的100瓶毒药”。城乡 、挺意想不到会与AI有交集 。向AI投喂多道人类都不一定能完善回答的复杂问题,突然有这么一个大爆发 。7月份,曾担任“投毒师”的北京航空航天大学法学院教授翟志勇对南方周末记者表示 ,研发者可以共同努力减少歧视 。环保、