0%

信息量定义f(x)=log2x,表明信息量的多少,x是概率,通俗来说概率越小信息量越大。

的定义是信息量的期望,即H(P)=i=1mpif(pi)

相对熵(KL散度)是两个系统“差距”, 比如以P为基准,与Q相差多少:DKL(P||Q)=i=1mpi(fQ(qi)fp(pi))=i=1mpi(log2qi)i=1mpi(log2pi)

后面一项是P的熵,前面一项是P与Q的交叉熵

交叉熵 H(P,Q)=i=1mpi(log2qi)=i=1n(yilog2yi^+(1yi)log2(1yi^))

这有一份密文~
阅读全文 »

8.4

今天休息,起床就下午了...然后搭了一天博客,初见成效。

明天再看看怎么装修吧。

昨天本来搭得差不多了,渲染的时候被自己给搞崩了,今天重新来的....

阅读全文 »