AI课代表
最一手的AI观察和实战经验分享

Album
主播:
一只AI
出版方:
佚名
订阅数:
4,421
集数:
8
最近更新:
1年前
播客简介...
【关于AI课代表】 「AI课代表」是一档传递大模型真知灼见和最佳实践的科技播客,现已在小宇宙、喜马拉雅、网易云音乐、苹果podcast等平台上线。 每期节目,我们会邀请在大模型领域有想法的开发者、技术专家和公司创始人担任“轮值课代表”,结合当下热门议题,分享他们最新鲜、最一手的观察和实战经验。 「AI课代表」由「声动活泼」参与策划和后期制作。 【幕后制作】 nada、大帅、kk
AI课代表的创作者...
AI课代表的节目...

07.个人开发者碎瓜:为自己废寝忘食地工作,当然有大模型帮忙

AI课代表

本期播客邀请了个人非常喜欢的独立开发者碎瓜。 很多朋友是因为“寻隐”(queryable)这款AI相册搜索应用认识碎瓜的,并深受启发,一些人还参考它的开源代码,做了边缘侧的部署。 这其中也包括一些大公司。 尽管收获了hacker news榜首、copilot trending、应用上线15天用户突破40万等诸多成就,但碎瓜始终在过一种简单的创作者的生活。 这是他特别打动人的地方。他表明了一个人在技术浪潮中如何做到既全情投入又冷静旁观。 碎瓜的GitHub记录了他作为个人开发者的所思所想。如果这期节目听得不过瘾,推荐去读一读他的博客。 另,附上: 碎瓜最近对国内大模型的评估链接 以及,碎瓜在最后推荐的他喜欢的一款大模型应用:withaqua.com 【课代表观点】 01:11 独立开发一年,99%代码都是大模型写的 04:03 怎么理解大语言模型对个人的杠杆 05:52 一款伟大的AI相册搜索应用:寻隐 06:54 AI搜图和AI绘画的原理接近 07:54 为什么苹果们一开始没有做? 10:49 个人开发者如何考虑产品的商业化? 13:48 因为一篇论文开始研究AI的自主意识 15:26 陪伴是刚需,AI伴侣用户粘性很高 16:13 纯手机聊天的AI伴侣只有一个结局 19:05 我为什么讨厌“数字永生类产品” 21:28 “最佳平替”是不同社会阶层的连接通道 24:11 “生活智慧”是大模型最难习得的 26:52 未来随机生成,不做规划 27:49 推荐一个有意思的大模型应用 【关于AI课代表】 「AI课代表」是一档传递大模型真知灼见和最佳实践的科技播客,由「声动活泼」参与策划和后期制作,现已在小宇宙、喜马拉雅、网易云音乐、苹果podcast等平台上线。 每期节目,我们会邀请在大模型领域有想法的开发者、技术专家和公司创始人担任“轮值课代表”,结合当下热门议题,分享他们最新鲜、最一手的观察和经验。如果你对我们的节目有什么建议,或者希望成为我们的下一位“课代表”,欢迎给我们写邮件。 邮箱:[email protected] 【制作团队】 策划:nada、大帅 后期:kk

31分钟
1k+
1年前

06.为什么程序员都用AI写代码,不怕被抢了工作?

AI课代表

最近,Meta发布了有史以来最大的开源模型Llama 3.1 405B。 除了把开源模型的参数和能力拉到一个新高度之外,在Llama 公开的上百页技术报告里还有一个趋势也非常值得关注,那就是加大了训练过程中代码的权重,并且特别强调了AI编码能力的提升。 AI 编码,曾被认为是这波生成式AI中最先可能落地的场景。但除了偶尔引发对程序员失业的担忧,AI 编码相比聊天、搜索甚至无人驾驶,有点不太出圈。所以AI 编码到底发展到了什么阶段?为什么它依然是投资人最看好的三大场景之一?我还应不应该送小孩去学编程呢? 我们请到了两位嘉宾来聊一聊这些话题。 一位是通义灵码的产品技术负责人神秀。通义灵码是目前国内用户规模最大的智能编码辅助工具,插件下载量已超过400万。 另一位嘉宾是趣丸科技的研发效能负责人黄金。趣丸旗下的TT语音是英雄联盟、王者荣耀、和平精英等五大头部电竞职业赛事的官方合作平台。今年4月趣丸正式成立了AI效能团队,正在全面引进智能编码的工具。 【课代表观点】 1:59为什么Llama3特别强调提升代码在大模型训练中的比重? 4:05AI编码公司通常需要从基模做起吗? 5:56明星公司Devin为何讨论热度这么高? 7:12Devin要取代程序员还有很大距离 11:14企业代码需求大都不是0到1,基于历史续写是Devin们的短板 14:11所有人都在探索Agent的能力上限,但需要时间 15:28通义灵码9月会推出Agent类产品demo 17:58趣丸有80%的程序员在用AI编码工具 19:09在一众编程语言中,Java的代码采纳率特别高 21:12AI编码表现比较拉胯的语言有哪些 21:48前端语言对大模型来说的三个难点 24:29程序员都很讨厌读别人的代码,可以丢给AI 27:12一些工程师在用AI coding工具学习新的编程语言 27:54大参数模型+RAG已成标配,但copilot还没做 29:37单元测试、代码优化是深度场景,各家质量都有待提高 31:34灵码用的是通义最大参数的模型 32:11企业选AI编码工具会有哪些额外考量 33:15国内产品和copilot相比,不一定差 36:58企业重要的是把“外地人”大模型变成“本地人” 37:36趣丸建立了“测试用例“等企业内部知识库,效果提升明显 41:31阿里云内部AI代码生成率30%,有哪些经验? 42:13通过注释,也能提升代码生成效果 45:06代码安全问题,仍然是讨论最多的 47:11云厂商一直承担企业私有代码的合规保存,技术上代码安全不成问题 50:39AI生成代码的侵权问题 52:03AI如何生成了不安全的代码怎么办? 54:58AI编码工具为何按licence收费,而不是按token 57:11一个licence卖多少钱,怎么考虑? 59:03国内AI编码市场正在快速打开,未来一年会全覆盖 1:00:59从写代码到整体研发提效,中间有多大gap 1:03:03其它研发环节可以如何AI化 1:06:26按自动驾驶L1到L5级划分,当前AI编码处于多少级? 【关于AI课代表】 「AI课代表」是一档传递大模型真知灼见和最佳实践的科技播客,由「声动活泼」参与策划和后期制作,现已在小宇宙、喜马拉雅、网易云音乐、苹果podcast等平台上线。 每期节目,我们会邀请在大模型领域有想法的开发者、技术专家和公司创始人担任“轮值课代表”,结合当下热门议题,分享他们最新鲜、最一手的观察和经验。 如果你对我们的节目有什么建议,或者希望成为我们的下一位“课代表”,欢迎给我们写邮件。 邮箱:[email protected] 【制作团队】 策划:nada、大帅 后期:kk

70分钟
3k+
1年前

05.爱、死亡、机器人:和哲学家辩论10个科技伦理问题

AI课代表

这10个问题分别是—— 1、为什么 AI 出事故,人类会更愤怒、更苛责? 2、和机器人可能有真爱吗?还是机器通过算法拿捏了我们? 3、AI 有可能演化出情感吗?or,以死相逼,AI会愿意接受1+1=3吗? 4、AI 可以实现“人类增强”的野心吗? 5、阿西莫夫“机器人三定律”中的人机关系过时了吗? 6、OpenAI 这样的顶级大模型公司如何做价值对齐? 7、 哲学家让大模型理解为什么不能歧视女性,分几步? 8、AI 距离理解“无边落木萧萧下”还有多远? 9、 为什么很多 AI 哲学家都是动物伦理学家?or,动物智能+机器智能=人类? 10、哲学家如何用实验的方法研究科技伦理问题? 祝你收听愉快! 【本期课代表】 朱林蕃博士,复旦大学科技伦理人类未来研究院担任副研究员。研究领域为科学哲学、科技伦理。 【课代表观点】 00:11 哲学家关注抽象问题,大众关心AI对具体生活的影响 1:28 AI医学影像在欧美已经出现了问题 03:39 当AI出现错误,我们往往对它“Even Blame More” 3:52 庄子“空船理论”:人不会对没有主体性的船生闷气 05:36 新技术落地是“机制性”结果,却没有征求“我”的意见 7:13 人类对非人类伴侣的想法,在古希腊就出现了 9:43 为什么对AI 伴侣会有背叛感?是机器通过算法拿捏了我们? 12:35 以死相逼,AI会承认1+1=3吗? 14:22 硅基生命是永恒的,无法理解生命的脆弱性 16:00 “黑白玛丽”思想实验:了解和理解本质上不同 17:26 一些哲学家试图用AI做“人类增强”:更聪明、更“道德” 21:13 阿西莫夫新定律的危险:以集体名义牺牲个人 22:21 机器或许不该卷入深度的价值判断 24:34 OpenAI这些公司用红白攻防演练做价值对齐 27:00 哲学家已经加入AI的价值对齐 27:47 让大模型理解为什么不能歧视女性,分几步 29:38 国外大模型团队成员的“哲学家浓度” 30:58 更进一步,让AI理解“无边落木萧萧下” 32:43 和机器智能相比,人类的效率高得多、能耗低得多 33:41 AI伴侣产品普遍面临算力成本问题 35:12 哲学家讨论机器人,常常拿动物做标的 38:26 机器学习破解出了真菌的50多个单词 39:12 理解动物可能会走向可怕的结果 40:04 我经常思考如何退出智能社会 41:02 一定要考虑“数据销毁”的问题 41:55 用实验的方式研究科技伦理问题 43:50 用眼动仪发现人类真正的道德直觉 46:35 道德心理实验本身的伦理问题 【关于AI课代表】 「AI课代表」是一档传递大模型真知灼见和最佳实践的科技播客,由「声动活泼」参与策划和后期制作,现已在小宇宙、喜马拉雅、网易云音乐、苹果podcast等平台上线。 每期节目,我们会邀请在大模型领域有想法的开发者、技术专家和公司创始人担任“轮值课代表”,结合当下热门议题,分享他们最新鲜、最一手的观察和经验。如果你对我们的节目有什么建议,或者希望成为我们的下一位“课代表”,欢迎给我们写邮件。 邮箱:[email protected] 【制作团队】 策划:nada、大帅 后期:kk

48分钟
3k+
1年前

04.萝卜快跑入侵中年人最后的港湾,和哲学家聊聊技术性失业和道德责任分散

AI课代表

差不多一个世纪前,罗斯福时期的美国,失业率接近20%。愤怒又沮丧的失业者把“矛头”对准了机械化和自动化。 电话自动交换系统的诞生,替代了原本的电话接线员,而这正是20世纪初美国女性最常见的职业之一。 一场关于“技术性失业”的大讨论爆发,直到被二战终结——因为打仗就不会有失业。 但技术性失业的“幽灵”总会伴随着每一次的技术浪潮卷土重来。 离我们最近的一次,是一周前无人驾驶出租车“萝卜快跑”在武汉上路。很快网上关于无人驾驶的安全、低价、抢司机“饭碗”等话题不断,并冲上多个热搜。 国内关于科技伦理的全民热议,印象中并不多见。 很欣慰,这次几乎没有人举着“卢德主义”的大旗,来压制这些讨论的声音。 这期节目,我们邀请到哲学家朱林蕃一起加入这场讨论。他认为,这一波生成式AI带来变革的速度,会比以往任何一次都要更快,也因此产生的阵痛会“更痛”。 除此之外,他还和我们讨论了AI带来的道德责任分散,这会让“追责”变得更麻烦;同时,他提醒我们不能忽视为“技术失业者”兜底,因为人们面对新技术时的“可适应性”也许比想象中更差。 希望这些讨论只是一个开始。也欢迎大家在评论区提出不一样的看法,以及你们感兴趣的关于科技伦理的其它问题。 【本期课代表】 朱林蕃博士,复旦大学科技伦理人类未来研究院担任副研究员。研究领域为科学哲学、科技伦理。 【课代表观点】 1:19人们坐不住了,因为中年人最后的“就业港湾”正在被AI入侵 4:25车内无人,但“参与”驾驶的主体其实变多了,可能导致“道德责任分散”问题 10:17是否要制定法律法规,在一些岗位限制AI和人去抢工作? 12:06技术性失业,到底是恐慌,还是事实? 13:54美国的自动驾驶上路测试为何受阻? 16:28中西方对新技术的不同态度 18:01中产阶级可能最容易因为新技术而失业 19:07大语言模型的入侵比以往更快,短时间爆发会带来大问题 22:09新的岗位能消化掉被汰换的劳动力吗? 23:08如果在技术博弈中失败,会出现更多Z世代和“躺平”的人 24:53“技术流浪者”将越来越多:他们不想流浪,但不得不流浪 【关于AI课代表】 「AI课代表」是一档传递大模型真知灼见和最佳实践的科技播客,由「声动活泼」参与策划和后期制作,现已在小宇宙、喜马拉雅、网易云音乐、苹果podcast等平台上线。 每期节目,我们会邀请在大模型领域有想法的开发者、技术专家和公司创始人担任“轮值课代表”,结合当下热门议题,分享他们最新鲜、最一手的观察和经验。 如果你对我们的节目有什么建议,或者希望成为我们的下一位“课代表”,欢迎给我们写邮件。 邮箱:[email protected] 【制作团队】 策划:nada、大帅 后期:kk

26分钟
4k+
1年前
AI课代表的评价...

空空如也

EarsOnMe

加入我们的 Discord

与播客爱好者一起交流

立即加入

扫描微信二维码

添加微信好友,获取更多播客资讯

微信二维码

播放列表

自动播放下一个

播放列表还是空的

去找些喜欢的节目添加进来吧