目录
- 目录
- 1001: CTC Loss 结构解析
- 1003: 高斯随机变量的重参数化技巧(Reparametrisation)
- 1005: HMM简介
- 参考
- 1006: Jacobian Matrix And its determinant 雅克比行列式及其行列式 20220418
- 1007: Self Attention 自注意力机制 20220428
- 1009: CSHN 连续态霍氏网络 Continuous State Hopfield Network
- [TBC]1010: 扩散生成模型 Diffusion Generative Model
- 1011: 噪音条件分数网络 noise conditional score network (NCSE)
- 1012: 软极参函数的求导: Differentiating softargmax (or so-called softmax)
- 1013: 从混合模型(MM)及广义期望最大算法(EM)到生成式自编码器(GAE)
- 1014: 自编码器及生成式自编码器 (AE and GAE) Autoencoder and Generative Autoencoder
- 1015: 贝叶斯自编码器 (BAE) Bayesian AutoEncoder
- 1016: 环参数化 Toroidal Parametrisation
- 1017: 高斯隐变量自编码器 GLGAE Gaussian Latent Generative Autoencoder
- 1018: 对抗生成网络 Generative Adverserial Network (GAN)
- 1019: 机器学习中的变分方法与KL恒等式 Variational approaches in machine learning and KL equations
- 1022: 局部线性生成式自编码器 (LLGAE) Locally Linear Generative Autoencoder
- 1024: 简单降噪扩散概率模型的推导 (SDDPM) Simplified Denoising Diffusion Probabilistic Model
- 1025: 降噪梯度对齐(Denoisng Score Matching)
- 1026: 梯度对齐的常用方法 (Recent methods in gradient matching)
- #! https://zhuanlan.zhihu.com/p/542457081
- jupytext: cell_metadata_filter: -all formats: md:myst text_representation: extension: .md format_name: myst format_version: 0.13 jupytext_version: 1.11.5 kernelspec: display_name: Python 3 language: python name: python3
- 1028-从KL散度到海氏距离 From KL divergence to Hellinger Distance
- 3001-知识图谱和NLP句子表示-20220416
- 3002: 从序列生成看模型隐状态的演进
- [TBC] 3005: 神经网络发展脉络
- 3007: 混合模型和期望函数
- 3008: 蛋白质序列设计
- server setup
- 8001: CATSMILE简介
- 8002:构建损失函数的程序语言
- 8500-PyTorch模型常用药
- 8501-20220524:模型复现与分布式建模
- 8800: PyTorch调试小工具 20220418
- 9001: [TBC] L2损失函数-正态分布
- 9002: 连续隐变量的混合模型与卷积
- 9003: [TBC] Junction Tree Algorithm
- 9005: GPT和BERT对比-无监督语言模型
- 9006: 语言模型内容填充
- 9007: BERT 结构解析
- 9008:对于BERT模型隐式分布的一些思考
- 9013-能量视角下的降噪扩散概率模型 DDPM Denoising Diffusion Probabilistic Model
- 9015-卷积神经网络有什么好? Why is CNN better?
- jbex-example: Notebooks with MyST Markdown