Learning!

So fascinating when AI meets Security!

Linux kernel 内存管理

buddy 算法、Slab分配器

Linux kernel 内存管理 一. Buddy 算法(伙伴系统) 为了高效的处理频繁申请和释放不同大小的连续页框,Linux内核中引入了伙伴系统算法(buddy system)。 主要思想: 把所有的空闲页框分组为11个块链表,每个块链表分别包含大小为1,2,4,8,16,32,64,128,256,512和1024个连续页框的页框块。每个页框4kb,最大可以申请1024个连续页框,...

CVE-2019-9213 漏洞分析及复现

理论分析、POC、提权

CVE-2019-9213 漏洞分析及复现 1. 漏洞简介 是一个linux 内核中可以映射用户空间的0地址漏洞,绕过了kernel对用户空间内存映射地址的最低限制mmap_min_addr,可以往用户空间的0地址进行写数据,可配合kernel中的null pointere dereference漏洞来进行提权。 允许的映射最低地址mmap_min_addr可通过cat /proc...

Stanford图机器学习公开课CS224W(十七)笔记

Lecture 17 -Reasoning over Knowledge Graphs

Reasoning over Knowledge Graphs 第11-16讲的内容,不是我所重点关注的,就不花费时间写了。 一.Knowledge Graph completion 在FreeBase的数据集上,研究人员发现93.8%的人没有填写出生地,78.5%的人没有填写国籍信息。 那么,给定一个非常大的知识图谱,我们如何来补全知识图谱中丢失的关系呢? 1.1 KG Re...

Stanford图机器学习公开课CS224W(十)笔记

Lecture 10 -Deep Generative Models for Graphs

Deep Generative Models for Graphs 温馨提示:Lecture 9是编程课,所以就不写笔记了哈 如这一讲的标题所示,来研究图的生成模型。 一.图生成模型的难点所在 非常大的变量输出空间 如果要生成具有n个节点的图,那么其邻接矩阵中就有$n^2$条边的参数要进行学习。 图不唯一的表征 n个节点的图通过节点顺序的置换,可以表征成$n...

Stanford图机器学习公开课CS224W(八)笔记

Lecture 8 -Graph Neural Network

Graph Neural Network 上一讲的内容,描述了几个经典的图嵌入算法,将节点映射到低维的向量中,并且在embedding空间仍然具有原来空间的相似性。 这一讲中,我们将会讨论基于图神经网络的深度学习方法。 一.图神经网络的困难 目前深度学习中较为成功的两大领域:CV和NLP,CV以图像作为处理对象,而图像可以轻松的用像素矩阵来表示;NLP处理文本信息,而文本信息都是以序...

Stanford图机器学习公开课CS224W(七)笔记

Lecture 7 -Graph Representation Learning

Graph Representation Learning 图表征学习减轻了之前ML的从业人员手工提取特征的负担,重要性不言而喻。 一. Embedding Nodes Node embedding 的目标就是对节点进行编码,并且在embedding space的相似性约等于在原始网络中的相似性。 所以这就需要我们: 定义一个encoder 来映射节点为embedding 定...

Stanford图机器学习公开课CS224W(六)笔记

Lecture 6 -Message Passing and Node Classification

Message Passing and Node Classification 这一节课主要讨论的问题是,在一个网络中,只有一些节点具有标签,那么怎么去为所有其他的节点分配标签? 这个问题也可以被称为Collective classification,主要思想是利用网络中已经存在的关系。 对应的三种分类技术分别为: Relational Classification Itera...

Stanford图机器学习公开课CS224W(五)笔记

Lecture 5 -Spectral Clustering

Spectral Clustering 这一部分来讲述谱聚类算法的产生缘由。 一.Graph Partitioning 首先给出问题:如何做出下图所示的一个分割? 最大化组内的连接数 最小化组间的连接数 下面我们将这种partition表达为组间”edge cut”的目标函数: \[cut(A,B)=\sum_{i\in A,j\in B}w_{ij}\] 如果是加...

Stanford图机器学习公开课CS224W(四)笔记

Lecture 4 -Community Steructure in Networks

Community Steructure in Networks 一图胜过万言,上节课研究Structural roles,这节课研究Communities。 一. Granovetter 定理 这个定理其实就是他定义的结论。 Granovetter对于一条边分别在社会和结构上之间的功能做了分析: 首先从结构特征上来看: 在结构上扮演“朋友”的边通常是强社交的;跨不同网络部分的长范...

Stanford图机器学习公开课CS224W(三)笔记

Lecture 3 -Motifs and Structural Roles in Networks

Motifs and Structural Roles in Networks 一. Subgraphs, Motifs 1.1 Network Motifs 这里将Network Motifs 定义为:网络连接中重复且重要的模式。这些属性可以帮助我们理解这个网络如何工作和预测网络的功能。 1.导出子图: 导出子图G’,V’∈V,但对于V’中任一顶点,只要在原图G中有对应边,那么就要出...