YA

In me the tiger sniffes the rose.

  • 主页
  • 世界之内
  • 世界之外
  • 叶隙随笔
所有文章 友链 关于我

YA

In me the tiger sniffes the rose.

  • 主页
  • 世界之内
  • 世界之外
  • 叶隙随笔

学习笔记@PRML|1 Introduction

阅读数:22429次 2020-07-31
字数统计: 2.8k字   |   阅读时长≈ 10分

Notes of Pattern Recognition and Machine Learning (PRML)

第一章为开篇,讨论了模式识别与机器学习的三个理论基础(从贝叶斯派的角度):概率论、决策论和信息论。

概率论的目的是量化和利用不确定性,是模式识别的第一阶段:Inference stage。决策论的目的是在概率论的框架下,根据已知的结论和约束,进行决策,是模式识别的第二阶段:Decision stage。信息论的目的是衡量对象包含的信息量。

The field of pattern recognition is concerned with the automatic discovery of regularities in data through the use of computer algorithms and with the use of these regularities to take actions such as classifying the data into different categories.

By Bishop in Pattern Recognition and Machine Learning

1.2节 概率论

一、贝叶斯派与频率派观点的不同

频率学派,其特征是把需要推断的参数θ视作固定且未知的常数,而样本X是随机的,其着眼点在样本空间,有关的概率计算都是针对X的分布。

贝叶斯学派,他们把参数θ视作随机变量,而样本X是固定的,其着眼点在参数空间,重视参数θ的分布,固定的操作模式是通过参数的先验分布结合样本信息得到参数的后验分布。

(作者:秦松雄,链接:https://www.zhihu.com/question/20587681/answer/23060072)

频率学派和贝叶斯学派最大的差别其实产生于对参数空间的认知上。所谓参数空间,就是你关心的那个参数可能的取值范围。频率学派(其实就是当年的Fisher)并不关心参数空间的所有细节,他们相信数据都是在这个空间里的”某个“参数值下产生的(虽然你不知道那个值是啥),所以他们的方法论一开始就是从“哪个值最有可能是真实值”这个角度出发的。于是就有了最大似然(maximum likelihood)以及置信区间(confidence interval)这样的东西,你从名字就可以看出来他们关心的就是我有多大把握去圈出那个唯一的真实参数。而贝叶斯学派恰恰相反,他们关心参数空间里的每一个值,因为他们觉得我们又没有上帝视角,怎么可能知道哪个值是真的呢?所以参数空间里的每个值都有可能是真实模型使用的值,区别只是概率不同而已。于是他们才会引入先验分布(prior distribution)和后验分布(posterior distribution)这样的概念来设法找出参数空间上的每个值的概率。

(作者:Xiangyu Wang,链接:https://www.zhihu.com/question/20587681/answer/41436978)

贝叶斯有“先验分布”的概念。而贝叶斯派的缺点也是从先验分布而出,先验分布的选择会影响结果,一般都是用高熵高斯分布或者均匀分布。

两派的不同,导致了最大似然估计和最大后验估计,比较两者公式,最大似然估计假设参数θ已知,求x的后验分布,最大后验估计则相反。

二、参数估计的三种方法:

  1. 最大似然估计MLE
  2. 最大后验估计MAP
  3. 全贝叶斯方法
    1. p(t|x,X,t)=∫p(t|x,w)p(w|X,t)dw
    2. 其实是用参数 w 的后验概率为权,对 probability 进行一次加权平均;因此这个过程需要 对 w 进行积分,即 marginalization。

最大似然估计和最大后验估计都是点估计,最大后验估计相当于最大似然估计加上正则项。(参考博文:https://blog.csdn.net/u011508640/article/details/72815981)

全贝叶斯方法实现起来有困难:Marginalization问题,即需要对全参数空间进行积分,但是算力不够,样本也不够。解决方法有两个:用monte carlo方法进行采样;用deterministic approximation (不知道是什么)

三、线性回归与最大似然估计、最大后验估计的比较

(一)线性回归作为最大似然

现在的目的是为了得到条件概率p(y|x),即已知x,得到y的概率。假设该条件概率符合正态分布,其中yhat(x;w)为正态分布的均值,那么条件对数似然的表达式,形式与均方误差相同。(见《深度学习》p117)

(二)线性回归作为最大后验

最大后验logp(θ|x)=logp(x|θ)+logp(θ),右边两项的第一项,就是最大似然估计里的条件似然。

右边两项的第二项,即参数θ的先验。当先验是正态分布,其均值为0,方差为(1/λ)(I2)时,其对数形式,就正比于l2正则化表达式:λ(wT)w。

所以,具有高斯先验权重的MAP 贝叶斯推断对应着权重衰减。

1.3节 模型选择

选择合适复杂度的模型:

  1. 验证集
  2. 交叉验证法、留一法

对模型表现的度量:

  1. 赤池信息准则(Akaike information criterion )
  2. 赤池信息准则的变体:贝叶斯信息准则

1.4节 维度灾难

维度灾难:随着维度变高,物体的体积将会越来越集中在物体表面附近的区域里。因此,不利于进行模式识别,

但是这个问题可以被解决,因为有两个规律:

  1. 高维度数据一般聚集在较低维度的空间里;
  2. 真实数据一般比较光滑,x的轻微改变也只会导致y的轻微改变,所以可以用比如插值的方法,来进行预测。

1.5节 决策论

一、定义

解决问题的两个阶段:

  1. Inference stage:概率论提供数学框架对不确定性进行量化和控制。即,得到联合概率分布或者后验概率分布
  2. Decision stage:决策论在概率论提供的理论框架下,进行决策。即,根据联合概率分布或者后验概率分布,进行合适的决策(比如分类、回归等)。

二、如何做决策(在分类问题下)

(一)misclassification loss

计算错分类的概率,通过最小化misclassification loss,选择最优的decision boundary,类似于阈值的概念。

(二)expected loss

有两类misclassification:把positive分类成negative,把negative分类成positive。这两类错误的后果可能是不同的,例如“把癌症诊断为无癌症”的后果比“把无癌症诊断为癌症”的后果更严重,又如“把正常邮件诊断为垃圾邮件”的后 果比“把垃圾邮件诊断为正常邮件”的后果更严重。这时候,少犯前一错误比少犯后一错误更 有意义。为此需要 loss function 对不同的错误的代价做量化。 不同错误的代价或者权重,记录在Loss matrix中。

三、三种Inference、Decision的方法或观点(在分类问题下)

  1. generative model:第一步,计算 类条件概率函数①(class-conditional densities,根据贝叶斯公式,相当于求得了联合概率分布),第二步,计算后验概率分布,第三步,选择策略。
  2. discriminant model:第一步,计算后验概率分布,第二步,选择策略。
  3. discriminant function:直接求输入和输出的映射。(比如说神经网络)

①类条件概率函数p(X|w_i)是指在已知某类别的特征空间中,出现特征值 X 的概率密度,指第w_i类样品中其属性 X 是如何分布的。

四、三种方法的优缺点

  1. generative model:求得联合概率分布,就可以求得x的分布,从而有利于离群点发现。但是如果只是针对分类问题,联合概率分布没必要,很浪费计算资源。
  2. discriminant function:端对端,不用求后验概率分布。但是后验概率分布很重要,在以下情况中,后验概率分布很有用:
    1. Compensating for class priors。在unbalanced data中,可以在其中取部分data组成balanced data,计算balanced data的后验概率分布,根据贝叶斯公式,只要将balanced data的后验概率除以balanced data的先验概率分布,再乘以unbalanced data的先验概率分布,就能得到unbalanced data的后验概率分布。
    2. Loss matrix改变之后,需要从0开始重新求discriminant function。但是如果知道了后验概率分布,只需要重新求expected loss,再最小化loss就可以了。
    3. Combining models。多个数据集,比如CT的图像数据集,和血糖血脂的数值累数据集,可以分别求这两个数据集的后验概率分布。假如两者条件独立,则直接把两个后验分布概率相乘,就能得到两个数据集放在一起后的后验分布概率。但是discriminant function完全无法实现。

以上讨论,再一次让我感受到了贝叶斯视角下的概率模型有多么优雅。

1.6节 信息论

一、信息熵的由来

  1. 信息熵数学公式的描述(intuitively speaking):
    具体的例子:在看一段文字X后,能否预测到X之后的文字内容。越容易预测,则说明X包含的信息越少,越不容易预测,则说明X包含的信息越多。用概率的视角去看,这个例子实际上描述的是X的不确定性,可以用概率来描述:P(X)。所以,直观上说,信息量h(X)和P(X)相关。

再考虑两个变量X、Y,如果X、Y不相关,那么h(X,Y)=h(X)+h(Y),但是P(X,Y)=P(X)P(Y)。所以可以考虑,h(X)是不是和logP(X)成正比,因为logP(X,Y)=logP(X)+logP(Y)。

所以就定义h(X)=logP(X)。

  1. 直观的理解:信息熵是衡量信息量的指标。
  2. 信息学上的理解:Entropy is a lower bound on the number of bits needed to transmit the state of a random variable.
  3. 两类数据:
    1. 离散型数据的信息熵:当变量的每个取值概率相同时,信息熵最大。
    2. 连续型数据的信息熵:当变量遵循高斯分布时,信息熵最大。

二、熵的相关概念

  1. 条件熵:在已知X的情况下,需要额外的信息去确定Y,这个额外的信息被称为条件熵。
  2. 相对熵:设有一个未知的分布p(x),而 q(x)为我们所获得的一个对 p(x)的近似; 按照 q(x) (而非真实分布 p(x))对该随机变量的各个值进行编码,平均编码长度比用真实分布 p(x)进行编码要额外长多少?答案是相对熵(KL 散度)KL(p||q)。
  3. 互信息:如果两个随即变量 X,Y 是独立的,那么有p(x,y)=P(x)P(y);当二者并不独立时,我们希望可以度量它们离独立还有多远,这个度量就是互信息。
赏

谢谢你请我吃糖果

支付宝
微信
  • 本文作者: YA
  • 本文链接: http://www.yuuuuang.com/2020/07/31/学习笔记@PRML|1 Introduction/
  • 版权声明: 本博客所有文章除特别声明外,均采用 MIT 许可协议。转载请注明出处!
  • 世界之内

扫一扫,分享到微信

随笔|疫情后的总结
随笔|面试后的回顾与思考
  1. 1. 1.2节 概率论
    1. 1.1. 一、贝叶斯派与频率派观点的不同
    2. 1.2. 二、参数估计的三种方法:
    3. 1.3. 三、线性回归与最大似然估计、最大后验估计的比较
      1. 1.3.1. (一)线性回归作为最大似然
      2. 1.3.2. (二)线性回归作为最大后验
  2. 2. 1.3节 模型选择
  3. 3. 1.4节 维度灾难
  4. 4. 1.5节 决策论
    1. 4.1. 一、定义
    2. 4.2. 二、如何做决策(在分类问题下)
      1. 4.2.1. (一)misclassification loss
      2. 4.2.2. (二)expected loss
    3. 4.3. 三、三种Inference、Decision的方法或观点(在分类问题下)
    4. 4.4. 四、三种方法的优缺点
  5. 5. 1.6节 信息论
    1. 5.1. 一、信息熵的由来
    2. 5.2. 二、熵的相关概念
© 2018-2025 YA
GitHub:hexo-theme-yilia-plus by Litten
本站总访问量26017次 | 本站访客数21132人
  • 所有文章
  • 友链
  • 关于我

tag:

  • 随笔
  • 年终总结
  • 世界之内
  • 世界之外
  • 叶隙集
  • 机器学习
  • 叶隙随笔
  • 图像处理
  • 数据挖掘

    缺失模块。
    1、请确保node版本大于6.2
    2、在博客根目录(注意不是yilia-plus根目录)执行以下命令:
    npm i hexo-generator-json-content --save

    3、在根目录_config.yml里添加配置:

      jsonContent:
        meta: false
        pages: false
        posts:
          title: true
          date: true
          path: true
          text: false
          raw: false
          content: false
          slug: false
          updated: false
          comments: false
          link: false
          permalink: false
          excerpt: false
          categories: false
          tags: true
    

  • 【叶隙集】42 实习

    2025-05-31

    #随笔#叶隙集

  • 2024年终总结

    2025-04-08

    #随笔#年终总结

  • 【叶隙集】41 盘旋的白文鸟

    2025-01-12

    #随笔#叶隙集

  • 大语言模型正在伤害人机交互领域的研究

    2025-01-05

    #随笔#世界之内

  • 【叶隙集】40 台湾旅行

    2024-12-22

    #随笔#叶隙集

  • 【叶隙集】39 搬家了

    2024-09-05

    #随笔#叶隙集

  • 2023年终总结

    2024-06-27

    #随笔#年终总结

  • 【叶隙集】38 参加学术会议

    2024-05-22

    #随笔#叶隙集

  • Notes of 3D Gaussian Splatting

    2024-03-19

    #世界之内

  • 【叶隙集】37 音乐会和朋友

    2023-12-04

    #随笔#叶隙集

  • 【叶隙集】36 QE和音乐会

    2023-11-02

    #随笔#叶隙集

  • 【叶隙集】35 新室友和更积极的生活

    2023-09-11

    #随笔#叶隙随笔

  • 读书笔记|《规训与惩罚》

    2023-08-27

    #随笔#世界之外

  • 【叶隙集】34 无法参加学术会议

    2023-06-28

    #随笔#叶隙集

  • 【叶隙集】33 回国后与朋友和家人们的聚会

    2023-06-11

    #随笔#叶隙集

  • 视频压缩技术概述

    2023-04-28

    #世界之内

  • 2022年终总结

    2023-03-31

    #随笔#年终总结

  • 【叶隙集】32 平和的心态

    2022-12-27

    #随笔#叶隙集

  • 【叶隙集】31 双相情绪障碍症

    2022-12-17

    #随笔#叶隙集

  • 【学习笔记】CS5229 Advanced Computer Network

    2022-12-17

    #世界之内

  • 【叶隙集】30 下半学期太忙了!

    2022-11-25

    #随笔#叶隙集

  • 【叶隙集】29 当助教的半个学期

    2022-10-07

    #随笔#叶隙集

  • 【叶隙集】28 忙碌的第一个月

    2022-08-31

    #随笔#叶隙集

  • 【叶隙集】27 老师的职责

    2022-07-31

    #随笔#叶隙集

  • 【叶隙集】26 新加坡太难找工作了

    2022-07-23

    #随笔#叶隙集

  • 【叶隙集】25 生产工具、学习生活和阅读笔记

    2022-07-15

    #随笔#叶隙集

  • 【叶隙集】24 学习、科研、旅行和爱与关怀

    2022-06-24

    #随笔

  • 【叶隙集】23 学习与研究

    2022-04-26

    #随笔#叶隙集

  • 【学习笔记】人工智能规划与决策

    2022-04-26

    #世界之内

  • 博士申请的总结

    2022-03-31

    #随笔

  • 【叶隙集】22 新的体验和宗教

    2022-03-07

    #随笔#叶隙集

  • 2021年终总结

    2022-01-08

    #随笔#年终总结

  • 【叶隙集】21 新朋友和学术报告

    2021-10-31

    #随笔#叶隙集

  • 【叶隙集】20 音乐会与教训

    2021-10-19

    #随笔#叶隙集

  • 【叶隙集】19 六周年纪念日

    2021-10-03

    #随笔#叶隙集

  • 【叶隙集】18 疫情与疫苗

    2021-09-24

    #随笔#叶隙集

  • 摘录|联合国2021年气候问题总结报告的摘要

    2021-09-19

    #世界之外

  • 【叶隙集】17 音乐会和读书

    2021-09-08

    #随笔#叶隙集

  • 【叶隙集】16 喜欢上了游泳

    2021-09-01

    #随笔#叶隙集

  • 【叶隙集】15 课前的夜曲

    2021-08-24

    #随笔#叶隙集

  • 【叶隙集】14 平稳的学习生活

    2021-08-16

    #随笔#叶隙集

  • 【叶隙集】13 生活与朋友

    2021-07-15

    #随笔#叶隙集

  • 【叶隙集】12 毕业

    2021-06-30

    #随笔#叶隙集

  • 【叶隙集】11 毕业前的生活

    2021-06-23

    #随笔#叶隙集

  • 读书笔记|《国境以南,太阳以西》读后感

    2021-06-17

    #随笔

  • 【叶隙集】10 青甘环线旅行

    2021-06-13

    #随笔#叶隙集

  • 半监督学习|论文粗读

    2021-06-07

    #机器学习

  • 【叶隙集】9 纯粹地生活

    2021-06-06

    #随笔#叶隙集

  • 【叶隙集】8 生活的界限

    2021-05-30

    #随笔#叶隙集

  • 【叶隙集】7 隔离结束

    2021-05-21

    #随笔#叶隙集

  • 【叶隙集】6 隔离生活

    2021-05-14

    #随笔#叶隙集

  • 【叶隙集】5 新的阶段

    2021-05-08

    #随笔#叶隙集

  • 【叶隙集】4 团队管理

    2021-04-30

    #随笔#叶隙集

  • 【叶隙集】3 过低的自我评价

    2021-04-23

    #随笔#叶隙集

  • 【叶隙集】2 方向与交往

    2021-04-16

    #随笔#叶隙集

  • 【叶隙集】1 原爆点-续

    2021-04-08

    #随笔#叶隙集

  • 随笔|目的与纯粹

    2021-03-28

    #随笔

  • 随笔|白文鸟

    2021-01-20

    #随笔

  • 写在一百以后——2020年终总结

    2021-01-01

    #随笔#年终总结

  • 随笔|选择

    2020-12-25

    #随笔

  • 读书笔记|《人生的意义》总结、摘录

    2020-11-25

    #世界之外

  • 书评|Normal People, Normal Love

    2020-10-07

    #随笔

  • Decision Making|人工智能、机器学习与强化学习的概述与比较

    2020-10-03

    #世界之内

  • 随笔|疫情后的总结

    2020-09-10

    #随笔

  • 学习笔记@PRML|1 Introduction

    2020-07-31

    #世界之内

  • 随笔|面试后的回顾与思考

    2020-07-26

    #随笔

  • 数据挖掘|数据挖掘概论笔记

    2020-06-24

    #世界之内#数据挖掘

  • 续写|美女或野兽

    2020-06-18

    #随笔

  • 随笔|无常

    2020-05-31

    #随笔

  • 现象学|胡塞尔《小观念》笔记

    2020-05-13

    #世界之外

  • 随笔|我的局限性

    2020-05-13

    #随笔

  • 随笔|胡乱的记录

    2020-04-09

    #随笔

  • 随笔|疫情

    2020-02-16

    #随笔

  • 随笔|怅惘地忖度

    2020-01-29

    #随笔

  • 2019年终总结

    2019-12-08

    #随笔#年终总结

  • 机器学习|Flow-based Model学习笔记

    2019-11-06

    #世界之内#机器学习

  • 【Introduction to TensorFlow】03 卷积神经网络与复杂数据集

    2019-10-31

    #世界之内#机器学习

  • 【Introduction to TensorFlow】02 初识机器学习与计算机视觉

    2019-10-29

    #世界之内#机器学习

  • 【Introduction to TensorFlow】01 TF 快速入门

    2019-10-29

    #世界之内#机器学习

  • 【Introduction to TensorFlow】00 课程概览

    2019-10-29

    #世界之内#机器学习

  • 随笔|呓语

    2019-10-27

    #随笔

  • 周记|面纱 久别重逢

    2019-09-21

    #随笔

  • 学习笔记|拟合优化

    2019-09-15

    #世界之内

  • 周记|爱人 体验 芝诺

    2019-09-07

    #随笔

  • 摘录|造成不幸福的原因之六:嫉妒

    2019-09-06

    #世界之外

  • 随笔|虚无 纵欲

    2019-08-22

    #随笔

  • 周记|尘埃落定

    2019-06-29

    #随笔

  • 周记|本能 愉悦 基因

    2019-06-12

    #随笔

  • 周记|空荡荡

    2019-06-02

    #随笔

  • 四月裂帛——读《女儿红》

    2019-05-30

    #随笔#世界之外

  • 机器学习|主成分分析

    2019-05-10

    #世界之内#机器学习

  • 《好运设计》史铁生

    2019-05-09

    #世界之外

  • 机器学习|感知机与支持向量机

    2019-04-27

    #世界之内#机器学习

  • 周记|记忆 概念 庸俗

    2019-04-27

    #随笔

  • 机器学习|模型评估与选择

    2019-04-17

    #世界之内#机器学习

  • 机器推理|SLD Resolution

    2019-04-06

    #世界之内

  • 第五代计算机

    2019-03-31

    #世界之内

  • 学习笔记|Volume Rendering

    2019-03-31

    #世界之内#图像处理

  • 周记|三月驼云

    2019-03-28

    #随笔

  • 生成对抗网络与强化学习:文本生成的方法

    2019-03-11

    #世界之内

  • 《桨声灯影里的秦淮河》俞平伯

    2019-03-09

    #世界之外

  • 周记|雨

    2019-03-09

    #随笔

  • 《春之积雪》简媜

    2019-03-01

    #世界之外

  • 周记|逃离

    2019-02-15

    #随笔

  • 存在主义是一种人道主义

    2019-02-11

    #世界之外

  • 学习笔记|比较文学

    2019-02-09

    #世界之外

  • 尼采的美学

    2019-02-01

    #世界之外

  • 哲学涉猎

    2019-02-01

    #世界之外

  • 读书笔记|光的诗人——《如何看懂印象派》

    2019-01-28

    #随笔#世界之外

  • 叔本华的生命意志哲学

    2019-01-25

    #世界之外

  • 再也不要把他们弄丢了

    2019-01-21

    #随笔

  • 2018年终总结

    2018-12-31

    #随笔#年终总结

  • 人类的心理行为模式

    2018-12-25

    #世界之外

  • 周记|神经症人格

    2018-12-22

    #随笔

  • 【周记】旋转

    2018-11-30

    #随笔

  • 七牛云Bucket失效

    2018-11-21

    #世界之内

  • 周记|从前的日色慢

    2018-11-21

    #随笔

  • 【数理逻辑】Incompleteness Theorem

    2018-11-10

    #世界之外

  • 专业随想

    2018-11-05

    #随笔

  • 生活

    2018-11-04

    #世界之外

  • 计算机组成与体系结构

    2018-11-04

    #世界之内

  • 【强化学习】Policy Gradient

    2018-11-03

    #世界之内

  • 怀疑是否有价值——怀疑论

    2018-10-30

    #世界之外

  • 周记|Every hero and coward

    2018-10-20

    #随笔

  • Web in Java

    2018-10-11

    #世界之内

  • 周记|十月女泽

    2018-10-02

    #随笔

  • 托福备考

    2018-09-28

    #世界之内

  • 周记|裸体之舞

    2018-09-24

    #随笔

  • 周记|中秋幸福

    2018-09-18

    #随笔

  • History of artificial intelligence

    2018-09-09

    #世界之外

  • 周记|我那无趣的灵魂

    2018-09-09

    #随笔

  • Softmax Regression

    2018-09-08

    #世界之内

  • 周记|Rational

    2018-09-02

    #随笔

  • 贰 《SICP》笔记:模块化、对象和状态

    2018-08-05

    #世界之内

  • 周记|困倦

    2018-08-04

    #随笔

  • 壹 《SICP》笔记:构造数据抽象

    2018-07-31

    #世界之内

  • 周记|原爆点

    2018-07-31

    #随笔

  • 零 《SICP》笔记:构造过程抽象

    2018-07-23

    #世界之内

  • Norms or maybe more

    2018-07-09

    #世界之内

  • 事已至此

    2018-06-24

    #随笔

  • 【增强学习】AirSim搭建

    2018-06-02

    #世界之内

  • 【机器学习】BP算法

    2018-05-26

    #世界之内

  • 【康德】宏大的哲学语境

    2018-05-26

    #世界之外

  • 【康德】康德的研究领域是什么

    2018-05-11

    #世界之外

  • 【高等数学】什么是梯度(期中考试复习思考)

    2018-04-29

    #世界之内

  • 《自控力》读书笔记

    2018-04-21

    #随笔

  • 【线性代数】The Essence of Linear Algebra

    2018-04-21

    #世界之内

  • 【数据结构与算法】临时抱佛脚

    2018-03-10

    #世界之内

  • 科技革命与人类社会——《论工业社会及其未来》读后感

    2018-03-08

    #随笔

  • 《论工业社会及其未来》原文摘录

    2018-02-23

    #世界之外

  • 《如何高效学习》读后总结

    2018-02-19

    #随笔

  • 《精进》chapter-2读后总结

    2018-02-13

    #随笔

  • A Review of Brian - Inspired Computer Vision

    2018-02-11

    #世界之内

  • 最近有个女生,说对我很失望

    2017-12-07

    #随笔

  • 病入膏肓

    2017-01-29

    #随笔

  • 白文鸟

    2016-10-29

    #随笔

  • 《不能承受的生命之轻》读后感

    2016-07-13

    #随笔

  • 都五月份了

    2016-04-29

    #随笔

  • 《四月裂帛》简媜

    2014-09-29

    #世界之外

  • Fernweh
  • Wuuuudle (已失效)
  • Nemo
  • Elmo (yyh) (已失效)
  • highestpeak (已失效)
  • Kazoo Blog
努力做一名谦逊、独立、乐于思考的学生