新京报贝壳财经讯(记者韦英姿)4月26日,清华大学苏世民书院院长、人工智能国际治理研究院院长薛澜出席2024中关村论坛年会平行论坛“数据安全治理与发展论坛”,并在接受包括新京报贝壳财经在内的媒体采访时回答了如何应对人工智能的潜在风险,以及可能的社会影响等问题。

 

清华大学苏世民书院院长、人工智能国际治理研究院院长薛澜接受媒体群访。 图/新京报贝壳财经记者韦英姿 摄

 

对于人工智能潜在风险的控制体系建设,他强调了国家法律法规、企业内部和社会公众的综合性作用。

 

他认为,国家需要专门出台类似《个人信息保护法》《生成式人工智能服务管理暂行办法》的以处理算法为主的法律法规,要求算法合理保护使用者权益。另外也需要企业通过成立委员会等加强内部基础建设的措施来保证技术应用过程合法合规。

 

 “人工智能安全上路还需要全社会共同监督,一旦发现误用、滥用的情况及时举报,相关政府部门将采取相应治理措施。”薛澜说。

 

他认为,应该鼓励人工智能采取开源技术路径,“促进技术快速发展和迭代”。同时他认为,在开源过程中也要保证技术安全,防止被恶意使用者利用从而给人类社会带来危害。

 

“人工智能技术刚进入应用阶段,各国的应用场景存在差别。”薛澜希望未来人工智能在应用上尽量给公众提供更多选择,但也需要以中国的特定场景为基础。

 

他以人脸识别技术为例解释称,国内火车站常人满为患,需要在较短时间内通过大量人流,“这时候人脸识别技术相对来说更快”。另外,火车站也可以为不愿意采取人脸识别技术的人设立人工通道,“只是这样可能更慢些”。

 

人工智能可能影响未来的职业技能要求,甚至是就业模式,我们应该如何应对?

 

对此薛澜认为,就像面对其他技术创新一样,我们可能需要探讨“怎么样利用人工智能技术为人类服务”,可能需要思考“人类下一步发展更希望得到什么”,“哪些工作可能更有创意、人工智能无法替代”,探讨思考后得到的方向可能就是人类需要掌握的技能。

 

“另一方面也需要开拓就业新领域。”薛澜表示,随着新技术发展和物质文化生活不断丰富,社会将产生更多的新需求,“这些需求也许就是未来的就业新模式”。

 

采访结束后,薛澜参加了主题为“数据安全治理与发展”的中关村论坛年会平行论坛,并主持“AI大模型数据安全治理”圆桌讨论。

 

该论坛由国家互联网信息办公室、北京市人民政府主办,国家互联网信息办公室网络数据管理局、北京市互联网信息办公室、北京市经济和信息化局、北京市政务服务和数据管理局等七家单位承办,清华大学人工智能国际治理研究院、国家互联网应急中心北京分中心协办。

 

编辑 陶野

校对 赵琳