XHJ


  • Home

  • About

  • Tags

  • Categories

  • Archives

  • Search

复盘|「天池 X LeetCode」在线编程专场选拔赛

Posted on 2021-07-22 | In Algorithm |
Words count in article: 799
复盘|「天池 X LeetCode」在线编程专场选拔赛统计链表奇数节点【一次遍历】遍历即可,小技巧是ans直接加0/1结果,省去if判断这一步。 1234567class Solution: def numberEvenListNode(self, head: Optional[ListNod ...
Read more »

复盘|天堂硅谷·数字经济算法编程大赛

Posted on 2021-07-21 | In Algorithm |
Words count in article: 557
复盘|天堂硅谷·数字经济算法编程大赛题目-01 化学反应【模拟】按题意模拟(可以用大根堆或者平衡树),每次找两个最大的出来,直到没有剩余或只剩一个。 123456789#平衡树from sortedcontainers import SortedListclass Solution: def ...
Read more »

李宏毅机器学习——神经网络设计技巧

Posted on 2021-07-20 | In Machine Learning |
Words count in article: 2.7k

李宏毅机器学习——神经网络设计技巧

1 鞍点(Saddle Point)

神经网络中,Gradient为0(或不存在)的点称为临界点(critical point),其有两种可能性:局部极小(local minima)和鞍点(saddle point)。

长期以来,人们普遍认为,神经网络优化问题困难是因为较大的神经网络中包含很多局部极小值,使得算法容易陷入到其中某些点。2014年的一篇论文中提出高维非凸优化问题之所以困难,是因为存在大量的鞍点而不是局部极值。

鞍点:

  • 一个维度向上倾斜且另一维度向下倾斜的点。这些鞍点通常被相同误差值的平面所包围,这使得算法陷入其中很难脱离出来,因为梯度在所有维度上接近于零
  • 梯度等于零,在其附近Hessian矩阵有正的和负的特征值,行列式小于0,即是不定的。

W24pJU.png

Read more »

李宏毅机器学习——反向传播

Posted on 2021-07-18 | In Machine Learning |
Words count in article: 621

李宏毅机器学习——反向传播

1 反向传播原理

神经网络中求解权重W的算法,分为信号的前向传播(Forward propagation,FP)和反向传播(Back propagation,BP)。前向传播得到预测值,计算输出误差,然后计算每个神经元节点对误差的贡献;反向传播根据前向传播的误差来求梯度,然后根据贡献调整原来的权重,最终达到最小化损失函数的目的。
W2hxoV.png

Read more »

李宏毅机器学习——梯度下降

Posted on 2021-07-16 | In Machine Learning |
Words count in article: 1.7k

李宏毅机器学习——梯度下降

1 偏差与方差

使用样本数据拟合函数,由于样本数据使采样而并非真实值本身,采样本身会带来误差。经过研究发现,其误差的期望值可以分解为三个部分:样本噪音、模型预测值的方差、预测值相对真实值的偏差,公式为:
$$
E\left((y-\hat{f}(x))^{2}\right)=\sigma^{2}+\operatorname{Var}[\hat{f}(x)]+(\operatorname{Bias}[\hat{f}(x)])^{2}
$$
其中$Bias[\hat{f}(x)] = E[\hat{f}(x) - f(x)]$,即误差的期望值 = 噪音的方差 + 模型预测值的方差 + 预测值相对真实值的偏差的平方,如下图所示。

W2h4dP.png

Read more »

李宏毅机器学习——回归

Posted on 2021-07-14 | In Machine Learning |
Words count in article: 1.8k

李宏毅机器学习——回归

回归大致可以理解为根据数据集$D$,拟合出近似的曲线,所以回归也常称为拟合(Fit)。按照自变量的数量可以分为一元回归和多元回归,按照自变量与因变量之间的函数表达式可以分为线性回归(Linear Regression)和非线性回归(Non-linear Regression)。

1 模型步骤

  • Step1:模型假设,选择模型框架(线性模型)
  • Step2:模型评估,如何判断众多模型的好坏(损失函数)
  • Step3:模型优化,如何筛选最优的模型(梯度下降)
1.1 模型假设(多元线性模型)

多元线性模型就是特征x的线性组合的函数,可以表示为$y=\sum{w_ix_i}+b$,$x_i$为特征,$w_i$为权重,b为偏移量。

Read more »

李宏毅机器学习——机器学习介绍

Posted on 2021-07-12 | In Machine Learning |
Words count in article: 665

李宏毅机器学习——机器学习介绍

1. 机器学习简介

机器学习是人工智能的一部分, 研究如何让计算机从数据学习某种规律。机器学习的目的是通过计算机程序根据数据去优化某一个评价指标,自动的从数据发现规律, 使用这些规律做出预测。
W2huKs.png
如图,机器学习可以简化为三个步骤,一、找一个function,二、让machine评价这个function,三、让machine自动地挑出最好的function。

2. 机器学习分类

W2hlV0.png
机器学习可大致分为监督学习、无监督学习、半监督学习、迁移学习和强化学习。

2.1 监督学习

监督学习是机器学习任务的一种。它从有标签的训练数据中推导出预测函数。有标签的训练数据是指每个训练实例都包括输入和期望的输出。简单来说就是给定数据,预测标签。
监督学习包括分类和回归。

Read more »

图神经网络——基本图论与PyG库

Posted on 2021-07-09 | In Machine Learning |
Words count in article: 1.8k

图神经网络——超大规模数据集类的创建和图预测任务实践

当数据集规模超级大时,很难有足够大的内存完全存下所有数据。因此需要一个按需加载样本到内存的数据集类。

1 Dataset基类

1.1 Dataset基类介绍

在PyG中,通过继承torch_geometric.data.Dataset基类来自定义一个按需加载样本到内存的数据集类。
继承此基类相比较继承torch_geometric.data.InMemoryDataset基类要多实现以下方法:

  • len():返回数据集中的样本的数量。
  • get():实现加载单个图的操作。注意:在内部,getitem()返回通过调用get()来获取Data对象,并根据transform参数对它们进行选择性转换。
Read more »

图神经网络——基本图论与PyG库

Posted on 2021-07-05 | In Machine Learning |
Words count in article: 2.6k

图神经网络——基于图神经网络的图表征学习方法

图表征学习要求在输入节点属性、边和边的属性(如果有的话)得到一个向量作为图的表征,基于图表征进一步的我们可以做图的预测,而图同构网络(Graph Isomorphism Network, GIN)的图表征网络是当前最经典的图表征学习网络。

1.GNN的邻域聚合(消息传递)

GNN的目标是以图结构数据和节点特征作为输入,以学习到节点(或图)的embedding,用于分类任务。
基于邻域聚合的GNN可以拆分为以下三个模块:

  • Aggregate:聚合一阶邻域特征。
  • Combine:将邻居聚合的特征 与 当前节点特征合并, 以更新当前节点特征。
  • Readout(可选):如果是对graph分类,需要将graph中所有节点特征转变成graph特征。

但是Aggregate的三种方式sum、mean、max的表征能力不够强大。

Read more »

图神经网络——超大图上的节点表征学习

Posted on 2021-07-01 | In Machine Learning |
Words count in article: 2.4k

图卷积网络(GCN)已经成功地应用于许多基于图形的应用,然而大规模的GCN的训练仍然具有挑战性。目前基于SGD的算法要么面临着随GCN层数呈指数增长的高计算成本,要么面临着保存整个图形和每个节点的embedding到内存的巨大空间(显存)需求。于是论文Cluster-GCN: An Efficient Algorithm for Training Deep and Large Graph Convolutional Network提出了Cluster-GCN方法来解决超大图的训练问题。

1.Cluster-GCN方法简单概括

  • 利用图节点聚类算法将一个图的节点划分为$c$个簇,每一次选择几个簇的节点和这些节点对应的边构成一个子图,然后对子图做训练。
  • 由于是利用图节点聚类算法将节点划分为多个簇,所以簇内边的数量要比簇间边的数量多得多,所以可以提高表征利用率,并提高图神经网络的训练效率。
  • 每一次随机选择多个簇来组成一个batch,这样不会丢失簇间的边,同时也不会有batch内类别分布偏差过大的问题。
  • 基于小图进行训练,不会消耗很多内存空间,于是我们可以训练更深的神经网络,进而可以达到更高的精度。
Read more »
<i class="fa fa-angle-left"></i>1…891011<i class="fa fa-angle-right"></i>

109 posts
21 categories
102 tags
RSS
GitHub
友情链接
  • Yaoguo Wang
© 2021 — 2024 true | Site words total count: 328.5k
Theme — NexT.Pisces v5.1.4
0%