【杂谈】愚者之思
引子 作为塔罗牌大阿尔卡那的第一张牌,愚者象征着起始: 从牌面我们可以看到,愚者手里拿着花,拿着根棍子,棍子末尾绑着自己的家当。可是,他脚踩在悬崖边,有一条白狗想要劝阻他前进…… 健康 喜乐的心乃是良药;忧伤的灵使骨枯干。——箴十七22 我的身体真说不上好,最近好歹吃饭不恶心了,可是饭量却依旧是之前的80%,体重也没有上升。这让我很焦虑,如果再来一场病,我的身体可能就吃不消了。 今年下半年就 ...
阅读更多
【CUDA/C++】对矩阵乘法的优化
And ye shall know the truth, and the truth shall make you free. 引子 本来想在上一篇文章中简单提一下矩阵乘法的优化的,但是我发现,这个事情并没有我想象中那么简单。 矩阵乘法的优化其实是一个非常复杂的事情,需要考虑到访存开销、缓存命中和编码等多方面因素。 简单的实现 在这里,我们不关心非方阵的情况。 根据线性代数的知识,我们知道 ...
阅读更多
【CUDA】利用GPU加速矩阵加法
And ye shall know the truth, and the truth shall make you free. 引子 在实验失败的一周之后,我在游戏中放松紧张的神经,这个时候我突然发现,GPU真是一个神奇的设备,能够以如此快的速度进行运算。 这背后的原理究竟如何?我很好奇。除此之外,这也和大语言模型的优化有着千丝万缕的联系,那么本次就来手搓一些CUDA代码,进行一些算法上的优化 ...
阅读更多
【数学】从熵到互信息量
引子 在最近的工作中,用到了互信息量,但是我对这些知识已经忘记了,这次就来一个比较系统的梳理。 熵 信息论中的熵,和我们中学学的热力学的熵不是一个概念。 在热力学中,熵用于衡量「系统的混乱程度」,比如过氧化氢的分解就是一个熵增反应,反应让系统变混乱了: $$ 2H_2O_2(l)\rightarrow2H_2O(l)+O_2(g) $$ 两摩尔液体生成了两摩尔液体,却又生成了一摩尔的气体。 信息论 ...
阅读更多
【ESP32/MicroPython】基于ESP32的博客状态监控器
引子 单纯觉得我的ESP32吃灰太浪费了。纯纯伪需求。 那么,问题就来到了我的树莓派,What can I do with it? 功能 本次的小项目实现了这么几个功能: 通过ESP32连接Wi-Fi。 通过爬虫,检测博客是否宕机。 通过计时功能,每隔一个小时检测。 能够计算每天的宕机次数,并显示在一个八段数码管上。 ESP32 首先我们来简单介绍一下ESP32究竟是什么,通俗来讲,ESP32 ...
阅读更多
【嵌入式】从UART到I2C
一个不会硬件的机器学习研究者,不是一个好的软件工程师。 引子 我最近在学习STM32,正好学习到了通讯这一步,这一部分有一些很有意思的概念,抽象总结出来做个小记。 UART UART是一个典型的串口通信协议。串口通信是一个典型的「点对点通信系统」,也就是说,这个系统能且只能支持两个设备彼此通信。 一个UART接口通常有四根线:VCC、GND、TX和RX,分别用于供电、接地、发送数据、接收数据。 ...
阅读更多
【AI】强化学习常用算法小记(下)
贝尔曼方程的艺术。 引子 上一篇文章主要讲了贝尔曼方程、TRPO和PPO算法。TRPO和PPO都是「基于信号进行优化的算法」。但是信号哪里给出?我们并不知道。也就是说,我们现在再假设存在打分机制的情况下,知道了如何优化。这篇文章讲一讲信号是如何得来的。 在游戏引擎中,信号可以通过A*算法等算法得来,但是再自然语言处理领域,信号则没有一个清晰的算法给出。但是,文本信号是符合马尔可夫性的,所以,可 ...
阅读更多
【AI】强化学习常用算法小记(上)
贝尔曼方程的艺术。 引子 我在科研生涯的第一篇工作就已经接触过RL了,当时的需求是:从文本和图片中分别提取出三元组,通过一种训练方法让这两组三元组之间的相似度尽可能高。选择RL的原因也很简单——提取三元组是没办法进行反向传播的,所以,就用不了SFT,只能用RL。 在最近的工作中,也遇到了一些需要RL的情况,苦于理论知识不充足,吃了很多苦头,这篇文章就记录一下对于常有的RL算法的学习。 强化学习 ...
阅读更多
【拉丁语】「哦,命运女神」的歌词小记
引子 笔者很久没有学习拉丁语了,最近在听古典音乐的时候偶然听到了「O Fortuna」这首,暂且根据模糊的拉丁语记忆,写一下歌词小记,主要集中在「每个单词的含义」和「英语中以这些词为词根的单词」等。 第一段 O Fortuna 在这句话中,使用了一种英语汉语没有的格——「呼格」,呼格通常用于称呼人或者事物。O就是「哦!」,Fortuna是第一变格法的阴性名词,以-a结尾。很容易看出来,现代英语 ...
阅读更多
【AI】Prompt设计的技巧与踩坑
引子 最近在跑实验的时候,深刻体会到了Prompt的设计对于模型性能的重大影响,这篇文章就来记录一下我所观察到的现象。 越长越好? 和一些初入AI的新手交流的过程中,我经常发现这样一个误区:人们会认为Prompt越长越好。但实际并不是这样。 如果在大量的数据集上做过实验,就容易发现,很多时候,模型依靠短且简略的Prompt的推理,可以比长且详细的Prompt,性能会提高,这个提高的点从0.1个点到 ...
阅读更多