YA

In me the tiger sniffes the rose.

  • 主页
  • 世界之内
  • 世界之外
  • 叶隙随笔
所有文章 友链 关于我

YA

In me the tiger sniffes the rose.

  • 主页
  • 世界之内
  • 世界之外
  • 叶隙随笔

机器学习|感知机与支持向量机

阅读数:22129次 2019-04-27
字数统计: 3.2k字   |   阅读时长≈ 12分

本文简单介绍了感知机(Perceptron)与支持向量机(Support Vector Machine SVM)的部分概念。

本文没有系统地介绍两种算法,只是作为四川大学彭玺老师《机器学习引论》的课程作业和笔记,以供参考。

机器学习中有一个概念叫做『线性可分』,意思是可以画一条线把把两个不同的类别分开,比方说男左女右排好队,就是线性可分的。不过有的时候大家混在一起乱成一锅粥,完全没有办法找到这么一条线,这时候怎么办呢?也有办法,就是不通过当前的角度来看问题,把问题投射到更高维的空间去,就可能在更高维的空间里找到新的『线性可分』。

-小土刀《学语言与买东西》

The evolution of neuron from biology to mathematics?

1890:美国心理学家和哲学家William James在其著作中指出——当两个事件同时发生时,涉及到的大脑过程间的连接将会增强,这是无监督的Hebb学习规则的灵感来源。此外,James还提出了加权(weighted)、可变(modifiable) 、及并行连接(parallel connections)等神经网络至今采用的基本概念。

1906:神经科学家、诺贝尔奖得主S. R. Cajal对神经元突触的可变的连接方式的发现为神经元建模提供了基本模型。

1932:James的学生Edward Lee Thorndike被认为是第一位真正的连接主义者。其专著《The Fundamentals of Learning》中提出学习是刺激和响应之间建立关联的结果。y?=f(x)

1943:C. L. Hull则提出神经元的输出是其输入与其他多个传入脉冲叠加的非线性函数,学习 是对神经元连接的修改。y=f(Wx) 这一理论是神经元连接模型、激活状态和学习算法的生理学依据。此外,Hull还提出了几个经验性的公式,其本质上就是Bernard Widrow和Marcian Hoff提出的Delta rule。

1943:Warren McCulloch和Walter Pitts提出第一个人工神经元模型——M-P模型,其通过阈值加权和定义了输入与输出的关系,奠定了人工神经元的数学模型基础。此外,McCulloch和Pitts 于1947年的工作是模式识别领域的开端; y=f(Wx+b)

1957:基于上述发现和研究,Frank Rosenblatt发明了Perceptron,是第一个2层的ANN,同时也是第一个基于学习的能处理线性可分数据的分类器。

The key concepts of Perceptron and its limitations.

Key Concepts

感知机(perceptron)由两层神经元组成,输入层接受外界输入信号,传递给输出层,输出层是M-P神经元,也称为”阈值逻辑单元”(threshold logic unit)。

因此,感知机具有M-P神经元的特点,输入信号通过带权重的连接进行传递,通过”激活函数”处理以产生神经元的输出,给定训练数据集,权重w可通过学习得到。其生理学和哲学基础为:

  • William James:具有加权、可变、并性连接的基本概念;

  • Edward Lee Thorndike:学习是刺激和响应之间建立关联的结果;

  • C. L. Hull:神经元的输出是其输入与其他多个传入脉冲叠加的非线性函数,学习是对神经元连接的修改。

感知机与之前的KNN方法相比,更近了一步。

KNN做的是纯粹的”识别”。也就是说,如果用KNN方法,那么我们在一个庞大的数据集下,每次输入一个待分类的数据,都要从头开始做一次计算。举个例子说,我有一大堆兔子和老鼠的图片作为数据集,每张图片都包含着各自所属动物的特征,那么当我拿到一张新的图片,就要拿这张图片与数据集里每一张图片进行比较,哪种动物的图片与这张图片更接近,我们就预测这个图片里是哪种动物。

而perceptron做的是”学习”,它做的不是每次识别、分类都要与每一个数据进行比较,而是作为一种方法,去学习另一种方法,使得通过它学习的这种方法,得到分类结果。本质上,是一个函数的映射过程,感知机需要学习一个函数f(x),只要把待识别的样本x放进这个函数里,就会得到一个y,这个结果就是x的分类结果。

Limitations

  • 无最优解

因为感知机的目的是进行分类,通过错误数据,不断调整权重,只要没有错误数据,就不会发生调整。因此,会因为参数初始化、输入训练集的顺序等因素,导致输出的模型,即决策边界千变万化。

perceptron-svm-1

如图,同一个训练集,得到了两个不同的决策边界,那么选择哪一个决策边界?感知机没有给出方法。

  • 无法解决非线性可分问题

感知机只有输出层神经元进行激活函数处理,即只有一层功能神经元,所以无法解决非线性可分问题,如异或问题。

Who is Vladimir N. Vapnik.

Vladimir Naumovich Vapnik,1936年12月6日-,俄罗斯统计学家、数学家。他是VC理论(Vapnik Chervonenkis theory)的主要创建人之一。(VC理论是一套机器学习理论,使用统计的方法,因此有别于归纳学习等其它机器学习方法由这套理论所引出的支持向量机对机器学习的理论界以及各个应用领域都有极大的贡献。)

Vapnik出生于苏联。1958年,他在撒马尔罕(现属乌兹别克斯坦)的乌兹别克国立大学完成了硕士学业。1964年,他于莫斯科的控制科学学院获得博士学位。毕业后,他一直在该校工作直到1990年,在此期间,他成为了该校计算机科学与研究系的系主任。

1995年,他被伦敦大学聘为计算机与统计科学专业的教授。1991至2001年间,他工作于AT&T贝尔实验室(后来的香农实验室),并和他的同事们一起发明了支持向量机理论。他们为机器学习的许多方法奠定了理论基础。

现在,他工作于新泽西州普林斯顿的NEC实验室。他同时是哥伦比亚大学的特聘教授。

2006年,他成为美国国家工程院院士。

Maximum Margin Principle and why support vector is important?

perceptron-svm-2

Maximum Margin Principle

接着上面一个问题,感知机有一个问题,就是无法找到一个最优的决策边界,如图,所有的决策边界都能很好地拟合数据集,那么我们应该去找哪一个呢?

直观上看,肯定选择两类样本正中间的决策边界,因为这个决策边界没有偏袒任何一方,很公平地站在两类样本的中间。更准切一点,这个决策边界所产生的分类结果会是拥有泛化能力最强的,鲁棒性最好的。

我们发现,实际上,决策边界应该尽可能远离所有种类的数据样本,这样就会有最好的鲁棒性,我们这个直觉很对,用一条准则来描述我们的直觉,叫最大边界准则(Maximum Margin Principle)。

那么如何利用最大边界准则呢?

最大边界准则,其后包含着一个条件——决策边界尽可能远离所有种类的数据样本,所以,我们需要最大化决策边界与距其最近的数据点的距离m,而距离决策边界最近的数据点,就称之为支持向量。

Why support vector is important

支持向量之所以重要,可以从定性和定量两个角度讨论。

定性角度

从定性角度看,最大边界准则或者说SVM的基本概念、原则,就是最大化决策边界与支持向量(support vector)的距离,所以支持向量是整个算法的基础。

定量角度

从定量角度看,支持向量是求出决策边界的重要参数,这一点可以从SVM的数学性质来看。

首先,SVM的思想基础就是,寻找符号最大边界准则的决策边界,假定有一个点x,待定决策边界的方程为wTx+b=0,可得点x到待定决策边界的距离γ为:

γ=wTx+b|w|=f(x)|w|

因为f(x)作为一个决策边界,当f(x)>0时,数据点标签为y=1,当f(x)<0时,另一边数据点标签为y=−1,所以为了防止γ<0的情况,我们再乘上y:

˜γ=yγ=ˆγ|w|

最大间隔分类器的目标函数就可以因此定义为:

max˜γ

但同时需要满足条件:

yi(wTxi+b)=ˆγi≥ˆγ,i=1,…,n

为了方便推导和优化,我们可以把ˆγ等于1,这样的处理不会给推导和优化带来任何影响。因此,以上式子就变成了以下形式:

max1|w|,s.t.,yi(wTxi+b)≥1,i=1,…,n

我们可以将以上形式转换成如下形式,之所以这样转换,一方面是为了便于求导,另一方面,求最大值问题和求最小值问题本质上是相同的。

min12|w|2,s.t.,yi(wTxi+b)≥1,i=1,…,n

我们可以用拉格朗日乘子法解决这个问题。

首先将这个约束形式转换成拉格朗日函数:

L(w,b,α)=12|w|2+m∑i=1αi(1−yi(wTxi+b))

当某个约束条件不满足时,例如yi(wTxi+b)≤1,那么显然有$\theta(w)=\max {\alpha{i} \geq 0} \mathcal{L}(w, b, \alpha)=\infin$。

而当所有约束条件都满足时,则最优值为θ(w)=12|w|2,亦即最初要最小化的量。

所以,我们的目的是最小化θ(w),也就是:

$$\min _{w, b} \theta(w)=\min _{w, b} \max {\alpha{i} \geq 0} \mathcal{L}(w, b, \alpha)$$

这个求解过程不好做,不妨把最小和最大的位置交换一下,变成:

$$\max {\alpha{i} \geq 0} \min _{w, b} \mathcal{L}(w, b, \alpha)$$

这样的改变满足KKT条件的情况下是没关系的,即要求:

$$\left{\begin{array}{l}{\alpha_{i} \geqslant 0} \ {y_{i} f\left(\boldsymbol{x}{i}\right)-1 \geqslant 0} \ {\alpha{i}\left(y_{i} f\left(\boldsymbol{x}_{i}\right)-1\right)=0}\end{array}\right.$$

注意这组式子,在最后我们还会提到。

为了求解以上式子,我们首先令L(w,b,α)对w、b求偏导,得到:

w=m∑i=1αiyixi

0=m∑i=1αiyi

将这两个式子代回原式,可得:

$$\max {\alpha} \sum{i=1}^{m} \alpha_{i}-\frac{1}{2} \sum_{i=1}^{m} \sum_{j=1}^{m} \alpha_{i} \alpha_{j} y_{i} y_{j} \boldsymbol{x}{i}^{\mathrm{T}} \boldsymbol{x}{j}$$

s.t.,αi≥0,i=1,…,n ∑ni=1αiy=0

上式就是原始式的对偶式。这里,我们已经把w、b消除,只要把每个αi求出,就能求得模型:

f(x)=wTx+b =m∑i=1αiyixTix+b

从这里我们可以看到为什么支持向量很重要。看我们上面说到的KKT条件,为了满足KKT条件,对于任意的训练样本,总有αi=0或者yif(xi)−1=0。如果αi=0,那么这个样本点不会在结果中体现;如果yif(xi)−1=0,那么实际上这个样本点就是支持向量。

通过以上我们可以看到,w的训练,是由支持向量决定的。

How to compute the distance between a given data point to the boundary?

点到线的距离公式如下:

r=wTxi+b||w||

What limitations the linear SVM suffered from?

线性SVM只能实现线性可分问题,基于训练样本线性可分的假设,即存在一个划分超平面能将训练样本正确分类。

但是现实中,大部分分类任务的原始样本空间内并不存在一个能正确划分两类样本的超平面。

赏

谢谢你请我吃糖果

支付宝
微信
  • 本文作者: YA
  • 本文链接: http://www.yuuuuang.com/2019/04/27/机器学习-感知机与支持向量机/
  • 版权声明: 本博客所有文章除特别声明外,均采用 MIT 许可协议。转载请注明出处!
  • 世界之内
  • 机器学习

扫一扫,分享到微信

《好运设计》史铁生
周记|记忆 概念 庸俗
  1. 1. The evolution of neuron from biology to mathematics?
  2. 2. The key concepts of Perceptron and its limitations.
    1. 2.1. Key Concepts
    2. 2.2. Limitations
  3. 3. Who is Vladimir N. Vapnik.
  4. 4. Maximum Margin Principle and why support vector is important?
    1. 4.1. Maximum Margin Principle
    2. 4.2. Why support vector is important
      1. 4.2.1. 定性角度
      2. 4.2.2. 定量角度
  5. 5. How to compute the distance between a given data point to the boundary?
  6. 6. What limitations the linear SVM suffered from?
© 2018-2025 YA
GitHub:hexo-theme-yilia-plus by Litten
本站总访问量25714次 | 本站访客数20853人
  • 所有文章
  • 友链
  • 关于我

tag:

  • 随笔
  • 年终总结
  • 世界之内
  • 世界之外
  • 叶隙集
  • 机器学习
  • 叶隙随笔
  • 图像处理
  • 数据挖掘

    缺失模块。
    1、请确保node版本大于6.2
    2、在博客根目录(注意不是yilia-plus根目录)执行以下命令:
    npm i hexo-generator-json-content --save

    3、在根目录_config.yml里添加配置:

      jsonContent:
        meta: false
        pages: false
        posts:
          title: true
          date: true
          path: true
          text: false
          raw: false
          content: false
          slug: false
          updated: false
          comments: false
          link: false
          permalink: false
          excerpt: false
          categories: false
          tags: true
    

  • 2024年终总结

    2025-04-08

    #随笔#年终总结

  • 【叶隙集】41 盘旋的白文鸟

    2025-01-12

    #随笔#叶隙集

  • 大语言模型正在伤害人机交互领域的研究

    2025-01-05

    #随笔#世界之内

  • 【叶隙集】40 台湾旅行

    2024-12-22

    #随笔#叶隙集

  • 【叶隙集】39 搬家了

    2024-09-05

    #随笔#叶隙集

  • 2023年终总结

    2024-06-27

    #随笔#年终总结

  • 【叶隙集】38 参加学术会议

    2024-05-22

    #随笔#叶隙集

  • Notes of 3D Gaussian Splatting

    2024-03-19

    #世界之内

  • 【叶隙集】37 音乐会和朋友

    2023-12-04

    #随笔#叶隙集

  • 【叶隙集】36 QE和音乐会

    2023-11-02

    #随笔#叶隙集

  • 【叶隙集】35 新室友和更积极的生活

    2023-09-11

    #随笔#叶隙随笔

  • 读书笔记|《规训与惩罚》

    2023-08-27

    #随笔#世界之外

  • 【叶隙集】34 无法参加学术会议

    2023-06-28

    #随笔#叶隙集

  • 【叶隙集】33 回国后与朋友和家人们的聚会

    2023-06-11

    #随笔#叶隙集

  • 视频压缩技术概述

    2023-04-28

    #世界之内

  • 2022年终总结

    2023-03-31

    #随笔#年终总结

  • 【叶隙集】32 平和的心态

    2022-12-27

    #随笔#叶隙集

  • 【叶隙集】31 双相情绪障碍症

    2022-12-17

    #随笔#叶隙集

  • 【学习笔记】CS5229 Advanced Computer Network

    2022-12-17

    #世界之内

  • 【叶隙集】30 下半学期太忙了!

    2022-11-25

    #随笔#叶隙集

  • 【叶隙集】29 当助教的半个学期

    2022-10-07

    #随笔#叶隙集

  • 【叶隙集】28 忙碌的第一个月

    2022-08-31

    #随笔#叶隙集

  • 【叶隙集】27 老师的职责

    2022-07-31

    #随笔#叶隙集

  • 【叶隙集】26 新加坡太难找工作了

    2022-07-23

    #随笔#叶隙集

  • 【叶隙集】25 生产工具、学习生活和阅读笔记

    2022-07-15

    #随笔#叶隙集

  • 【叶隙集】24 学习、科研、旅行和爱与关怀

    2022-06-24

    #随笔

  • 【叶隙集】23 学习与研究

    2022-04-26

    #随笔#叶隙集

  • 【学习笔记】人工智能规划与决策

    2022-04-26

    #世界之内

  • 博士申请的总结

    2022-03-31

    #随笔

  • 【叶隙集】22 新的体验和宗教

    2022-03-07

    #随笔#叶隙集

  • 2021年终总结

    2022-01-08

    #随笔#年终总结

  • 【叶隙集】21 新朋友和学术报告

    2021-10-31

    #随笔#叶隙集

  • 【叶隙集】20 音乐会与教训

    2021-10-19

    #随笔#叶隙集

  • 【叶隙集】19 六周年纪念日

    2021-10-03

    #随笔#叶隙集

  • 【叶隙集】18 疫情与疫苗

    2021-09-24

    #随笔#叶隙集

  • 摘录|联合国2021年气候问题总结报告的摘要

    2021-09-19

    #世界之外

  • 【叶隙集】17 音乐会和读书

    2021-09-08

    #随笔#叶隙集

  • 【叶隙集】16 喜欢上了游泳

    2021-09-01

    #随笔#叶隙集

  • 【叶隙集】15 课前的夜曲

    2021-08-24

    #随笔#叶隙集

  • 【叶隙集】14 平稳的学习生活

    2021-08-16

    #随笔#叶隙集

  • 【叶隙集】13 生活与朋友

    2021-07-15

    #随笔#叶隙集

  • 【叶隙集】12 毕业

    2021-06-30

    #随笔#叶隙集

  • 【叶隙集】11 毕业前的生活

    2021-06-23

    #随笔#叶隙集

  • 读书笔记|《国境以南,太阳以西》读后感

    2021-06-17

    #随笔

  • 【叶隙集】10 青甘环线旅行

    2021-06-13

    #随笔#叶隙集

  • 半监督学习|论文粗读

    2021-06-07

    #机器学习

  • 【叶隙集】9 纯粹地生活

    2021-06-06

    #随笔#叶隙集

  • 【叶隙集】8 生活的界限

    2021-05-30

    #随笔#叶隙集

  • 【叶隙集】7 隔离结束

    2021-05-21

    #随笔#叶隙集

  • 【叶隙集】6 隔离生活

    2021-05-14

    #随笔#叶隙集

  • 【叶隙集】5 新的阶段

    2021-05-08

    #随笔#叶隙集

  • 【叶隙集】4 团队管理

    2021-04-30

    #随笔#叶隙集

  • 【叶隙集】3 过低的自我评价

    2021-04-23

    #随笔#叶隙集

  • 【叶隙集】2 方向与交往

    2021-04-16

    #随笔#叶隙集

  • 【叶隙集】1 原爆点-续

    2021-04-08

    #随笔#叶隙集

  • 随笔|目的与纯粹

    2021-03-28

    #随笔

  • 随笔|白文鸟

    2021-01-20

    #随笔

  • 写在一百以后——2020年终总结

    2021-01-01

    #随笔#年终总结

  • 随笔|选择

    2020-12-25

    #随笔

  • 读书笔记|《人生的意义》总结、摘录

    2020-11-25

    #世界之外

  • 书评|Normal People, Normal Love

    2020-10-07

    #随笔

  • Decision Making|人工智能、机器学习与强化学习的概述与比较

    2020-10-03

    #世界之内

  • 随笔|疫情后的总结

    2020-09-10

    #随笔

  • 学习笔记@PRML|1 Introduction

    2020-07-31

    #世界之内

  • 随笔|面试后的回顾与思考

    2020-07-26

    #随笔

  • 数据挖掘|数据挖掘概论笔记

    2020-06-24

    #世界之内#数据挖掘

  • 续写|美女或野兽

    2020-06-18

    #随笔

  • 随笔|无常

    2020-05-31

    #随笔

  • 现象学|胡塞尔《小观念》笔记

    2020-05-13

    #世界之外

  • 随笔|我的局限性

    2020-05-13

    #随笔

  • 随笔|胡乱的记录

    2020-04-09

    #随笔

  • 随笔|疫情

    2020-02-16

    #随笔

  • 随笔|怅惘地忖度

    2020-01-29

    #随笔

  • 2019年终总结

    2019-12-08

    #随笔#年终总结

  • 机器学习|Flow-based Model学习笔记

    2019-11-06

    #世界之内#机器学习

  • 【Introduction to TensorFlow】03 卷积神经网络与复杂数据集

    2019-10-31

    #世界之内#机器学习

  • 【Introduction to TensorFlow】02 初识机器学习与计算机视觉

    2019-10-29

    #世界之内#机器学习

  • 【Introduction to TensorFlow】01 TF 快速入门

    2019-10-29

    #世界之内#机器学习

  • 【Introduction to TensorFlow】00 课程概览

    2019-10-29

    #世界之内#机器学习

  • 随笔|呓语

    2019-10-27

    #随笔

  • 周记|面纱 久别重逢

    2019-09-21

    #随笔

  • 学习笔记|拟合优化

    2019-09-15

    #世界之内

  • 周记|爱人 体验 芝诺

    2019-09-07

    #随笔

  • 摘录|造成不幸福的原因之六:嫉妒

    2019-09-06

    #世界之外

  • 随笔|虚无 纵欲

    2019-08-22

    #随笔

  • 周记|尘埃落定

    2019-06-29

    #随笔

  • 周记|本能 愉悦 基因

    2019-06-12

    #随笔

  • 周记|空荡荡

    2019-06-02

    #随笔

  • 四月裂帛——读《女儿红》

    2019-05-30

    #随笔#世界之外

  • 机器学习|主成分分析

    2019-05-10

    #世界之内#机器学习

  • 《好运设计》史铁生

    2019-05-09

    #世界之外

  • 机器学习|感知机与支持向量机

    2019-04-27

    #世界之内#机器学习

  • 周记|记忆 概念 庸俗

    2019-04-27

    #随笔

  • 机器学习|模型评估与选择

    2019-04-17

    #世界之内#机器学习

  • 机器推理|SLD Resolution

    2019-04-06

    #世界之内

  • 第五代计算机

    2019-03-31

    #世界之内

  • 学习笔记|Volume Rendering

    2019-03-31

    #世界之内#图像处理

  • 周记|三月驼云

    2019-03-28

    #随笔

  • 生成对抗网络与强化学习:文本生成的方法

    2019-03-11

    #世界之内

  • 《桨声灯影里的秦淮河》俞平伯

    2019-03-09

    #世界之外

  • 周记|雨

    2019-03-09

    #随笔

  • 《春之积雪》简媜

    2019-03-01

    #世界之外

  • 周记|逃离

    2019-02-15

    #随笔

  • 存在主义是一种人道主义

    2019-02-11

    #世界之外

  • 学习笔记|比较文学

    2019-02-09

    #世界之外

  • 尼采的美学

    2019-02-01

    #世界之外

  • 哲学涉猎

    2019-02-01

    #世界之外

  • 读书笔记|光的诗人——《如何看懂印象派》

    2019-01-28

    #随笔#世界之外

  • 叔本华的生命意志哲学

    2019-01-25

    #世界之外

  • 再也不要把他们弄丢了

    2019-01-21

    #随笔

  • 2018年终总结

    2018-12-31

    #随笔#年终总结

  • 人类的心理行为模式

    2018-12-25

    #世界之外

  • 周记|神经症人格

    2018-12-22

    #随笔

  • 【周记】旋转

    2018-11-30

    #随笔

  • 七牛云Bucket失效

    2018-11-21

    #世界之内

  • 周记|从前的日色慢

    2018-11-21

    #随笔

  • 【数理逻辑】Incompleteness Theorem

    2018-11-10

    #世界之外

  • 专业随想

    2018-11-05

    #随笔

  • 生活

    2018-11-04

    #世界之外

  • 计算机组成与体系结构

    2018-11-04

    #世界之内

  • 【强化学习】Policy Gradient

    2018-11-03

    #世界之内

  • 怀疑是否有价值——怀疑论

    2018-10-30

    #世界之外

  • 周记|Every hero and coward

    2018-10-20

    #随笔

  • Web in Java

    2018-10-11

    #世界之内

  • 周记|十月女泽

    2018-10-02

    #随笔

  • 托福备考

    2018-09-28

    #世界之内

  • 周记|裸体之舞

    2018-09-24

    #随笔

  • 周记|中秋幸福

    2018-09-18

    #随笔

  • History of artificial intelligence

    2018-09-09

    #世界之外

  • 周记|我那无趣的灵魂

    2018-09-09

    #随笔

  • Softmax Regression

    2018-09-08

    #世界之内

  • 周记|Rational

    2018-09-02

    #随笔

  • 贰 《SICP》笔记:模块化、对象和状态

    2018-08-05

    #世界之内

  • 周记|困倦

    2018-08-04

    #随笔

  • 壹 《SICP》笔记:构造数据抽象

    2018-07-31

    #世界之内

  • 周记|原爆点

    2018-07-31

    #随笔

  • 零 《SICP》笔记:构造过程抽象

    2018-07-23

    #世界之内

  • Norms or maybe more

    2018-07-09

    #世界之内

  • 事已至此

    2018-06-24

    #随笔

  • 【增强学习】AirSim搭建

    2018-06-02

    #世界之内

  • 【机器学习】BP算法

    2018-05-26

    #世界之内

  • 【康德】宏大的哲学语境

    2018-05-26

    #世界之外

  • 【康德】康德的研究领域是什么

    2018-05-11

    #世界之外

  • 【高等数学】什么是梯度(期中考试复习思考)

    2018-04-29

    #世界之内

  • 《自控力》读书笔记

    2018-04-21

    #随笔

  • 【线性代数】The Essence of Linear Algebra

    2018-04-21

    #世界之内

  • 【数据结构与算法】临时抱佛脚

    2018-03-10

    #世界之内

  • 科技革命与人类社会——《论工业社会及其未来》读后感

    2018-03-08

    #随笔

  • 《论工业社会及其未来》原文摘录

    2018-02-23

    #世界之外

  • 《如何高效学习》读后总结

    2018-02-19

    #随笔

  • 《精进》chapter-2读后总结

    2018-02-13

    #随笔

  • A Review of Brian - Inspired Computer Vision

    2018-02-11

    #世界之内

  • 最近有个女生,说对我很失望

    2017-12-07

    #随笔

  • 病入膏肓

    2017-01-29

    #随笔

  • 白文鸟

    2016-10-29

    #随笔

  • 《不能承受的生命之轻》读后感

    2016-07-13

    #随笔

  • 都五月份了

    2016-04-29

    #随笔

  • 《四月裂帛》简媜

    2014-09-29

    #世界之外

  • Wuuuudle
  • Nemo
  • Elmo (yyh)
  • highestpeak
  • Kazoo Blog
努力做一名谦逊、独立、乐于思考的学生