评分
暂无评分
0人评价
5星
0%
4星
0%
3星
0%
2星
0%
1星
0%
AI智能总结...
AI 正在思考中...
本集内容尚未生成 AI 总结
简介...
系列介绍:科技伦理问题在信息科技领域愈发获得重视。互联网和社交媒体带来了资讯爆炸,也包括真伪难辨的信息;人工智能可以提高效率,但也有人担忧它是否会威胁人类的未来;无孔不入的大数据网络提供了便利,却令网络个人隐私保护成为一个问题。网络技术给大部分人提供了更多资讯和便捷,同时也可能令弱势人群成为被技术抛弃和遗忘的群体。为了厘清技术与人类社会的复杂关系和科技伦理的种种迷思,我们邀请到几位在相关领域的研究专家来一一解读。
主讲人介绍
主讲人:廖庆子
IBM Thomas J. Watson Research Center研究员,UIUC计算机科学博士。主要研究方向为人机交互,人与人工智能交互,可解释性人工智能,和对话机器人。
主讲人:王大阔
IBM Thomas J. Watson Research Center研究员。UC Irvine信息科学博士。主要研究方向为自动化人工智能,对话机器人,人与人工智能合作。
讲座要点:
这期沙龙我们请到IBM Watson研究所的两位科学家为我们解读可解释的人工智能,以及人工智能和人类合作的现状与未来。
[00:00:00] 介绍
[00:03:00] 上半场:以人为本
[00:05:00] 什么是人工智能
-- 目的:预测与分类
[00:10:00] -- 各种AI算法
[00:12:00] -- 人工智能的应用
[00:16:00] 以人为本的AI设计
[00:17:30] -- 案例分析: IBM autoAI
[00:19:00] -- 案例分析: responsible and fair AI
[00:22:30] -- 案例分析: interpretable and explainable AI
[00:26:30] -- 大公司AI设计章程
[00:28:30] AI作为人类的合作伙伴
[00:30:30] -- 案例:医疗健康领域
[00:46:00] -- 案例:教育领域
[00:52:00] 未来展望:具有合作精神的AI
[00:54:00] 下半场:可解释性
[00:57:00] 为什么要可解释的人工智能
[01:00:00] 达到可解释性的方法
[01:09:00] 提供ai解释性的开源工具
[01:10:30] 可解释性与AI伦理
[01:12:30] -- 可解释性作为以人为本AI的基础
[01:14:00] -- 无歧视AI
[01:19:30] -- 可解释性帮助决策、评估
[01:22:30] 可解释性面临的挑战
-- 挑战1:没有通用答案
[01:27:30] -- 挑战2:人与AI在解释上的区别
[01:30:00] -- 挑战3:可解释性的局限
[01:35:00] Q&A
线上提问:请访问SLI.DO, 输入活动码 #AIFHM 进入提问页面: https://app.sli.do/event/azm0pvxo
给湾区文化沙龙打赏: https://www.venmo.com/Bayers-Shalong
-------------------------------------------------------------------------------------------------------
我们还有其他的信息渠道,欢迎选择你常用的平台,第一时间获得我们的活动信息:
微信公众号: 湾区文化沙龙
我们的网站: http://bayersshalong.org/
我们的Maillist: https://mailchi.mp/37a9f0bab380/bayersshalong
我们的fb: https://www.facebook.com/bayershalong
我们的微博: https://weibo.com/u/7319836123
我们的matters: https://matters.news/@BayersShalong
我们的podcast: https://pod.link/1490805354
主播...

湾区文化沙龙管理员
评价...
空空如也
小宇宙热门评论...
暂无小宇宙热门评论