Duration: (4:4) ?Subscribe5835 2025-02-19T16:16:21+00:00
废弃矩阵计算 大语言模型的高效计算方式MatMul Free
(4:4)
AI芯片主要计算方式:矩阵运算【AI芯片】AI计算体系05
(9:53)
揭秘QLoRA: 通过对权重矩阵量化的方法,来高效微调大语言模型 (Unveiling QLoRA)
(24:23)
无所不能的矩阵-三维图形变换
(8:1econd)
部署本地大模型和知识库,最简单的方法
(4:57)
deepseek颠覆世界,数据、算力、模型,普通人如何把握AI风口? #股票 #黃金 #投資 #房產 #宏觀 #中國 #經濟 #衰退 #蕭條 #通縮 #通脹 #ai #deepseek #人工智能
(3:37)
大语言模型科普:deepseek推理怎么加速矩阵运算?
(7:15)
【重制版】【人工智能】万字通俗讲解大语言模型内部运行原理 | LLM | 词向量 | Transformer | 注意力机制 | 前馈网络 | 反向传播 | 心智理论
(38:45)
黄仁勋:“别再学编程,如果一切重来,我会学习。。。” 聊聊 AI 阴影下的程序员生存技能 | 回到Axton
(14:58)
用AI給人生開掛的正確方式: AI比人进化快的时代,學什麼才不落伍?
(15:52)
上帝的骰子:电子双缝干涉实验有多诡异?量子的波函数如何理解?
(14:53)
【漫士科普】90分钟深度!一口气看明白人工智能和神经网络#人工智能 #神经网络
(1:28:58)
麻省理工博士:为什么我说人人都要懂一点贝叶斯思维?【贝叶斯思维小课堂01】
(7:27)
如何知道一个大模型在推理和训练时需要多少显存?
(8:48)
从编解码和词嵌入开始,一步一步理解Transformer,注意力机制(Attention)的本质是卷积神经网络(CNN)
(1:45:12)
机器能像人一样思考吗?人工智能(一)机器学习和神经网络
(26:22)
通过RAG给本地AI大模型投喂数据创建私有AI知识库
(8:11)
知识图谱+大模型=显性知识+隐形知识
(2:38)
【人工智能】万字通俗讲解大语言模型内部运行原理 | LLM | 词向量 | Transformer | 注意力机制 | 前馈网络 | 反向传播 | 心智理论
[深度探索] 2024年实现AI算法探测系外行星:项目预算180万美元,分五大阶段推进
(22:58)
从零开始学习大语言模型(一)
(20:13)