
时长:
60分钟
播放:
2,847
发布:
3年前
简介...
越来越多的人担心使用人工智能会造成社会问题。很多人在研究如何避免这些问题,让人类可以使用人工智能创造更美好的社会。这个领域的研究者谭宸浩教授来给我们介绍这个领域的进展。
嘉宾:谭宸浩
主播:斯图亚特
剪辑: 季雨清
时间线: 季雨清
- 00:00:56 谭教授被纽约时报报道的经历
- 00:04:44 为什么需要关心人工智能和人的关系
- 00:14:30 人机合作的历史讨论
- 00:21:52 什么是Human Centered AI(简称HCAI,以人类为中心的人工智能)
- 00:23:24 FAccT会议
- 00:48:03 AI对社会的积极影响
- 00:51:54 谭教授的研究生课程
- 00:52:54 这一领域的未来发展方向
- 00:56:29 进入这一领域需要做哪些准备
相关链接
- 谭宸皓的课程: https://github.com/ChicagoHAI/human-centered-machine-learning
- FAccT会议: https://facctconference.org/
- 保释软件“歧视“黑人: https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing
- 计算机视觉的黑人偏见: https://news.mit.edu/2018/study-finds-gender-skin-type-bias-artificial-intelligence-systems-0212 http://gendershades.org/
- 人类和AI一起下棋: https://en.wikipedia.org/wiki/Advanced_chess
- 三种大学录取公平标准无法兼顾的论文: https://arxiv.org/abs/1609.05807
- 机器学习公平性教程: https://towardsdatascience.com/a-tutorial-on-fairness-in-machine-learning-3ff8ba1040cb
图片:
Image by Pete Linforth from Pixabay
片头片尾音乐:
Courante 1st Cello Suite
Exzel Music Publishing (freemusicpublicdomain.com)
Licensed under Creative Commons: By Attribution 3.0
http://creativecommons.org/licenses/by/3.0/
评价...
空空如也
小宇宙热门评论...

酱猫
3年前
8
非常感谢主播和嘉宾,很有收获。顺便推荐两个最近听到的相关博客:Fairness and Robustness in Federated Learning with Virginia Smith https://twimlai.com/fairness-and-robustness-in-federated-learning-with-virginia-smith/;AI’s Legal and Ethical Implications with Sandra Wachter https://twimlai.com/ais-legal-and-ethical-implications-with-sandra-wachter/,以及一本新书《The Altas of AI》

AIFans
3年前
3
追更

冷露无声湿桂花
3年前
3
24:54 包括计算区域犯罪率的算法,(还有有色人种抽叶子被抓的几率更高)这些都是有bias

手撕面包1995
3年前
2
感谢主播们,请多多更新。
Wenlei_ym07
3年前
2
还没听内容,冲这个标题,点个赞。

kingvac的新袖子
3年前
1
22:54识别黑人正确率低这个问题其实很好解决,只要把输入系统的照片全部黑白反色,让识别白人的正确率更低,就政治正确了

Minke
3年前
1
09:14 有趣

persimonnn
3年前
0
Cynthia Rudin 👍
Lu山煙雨
2年前
广东
0
47:57 阿里的数据中台