MIT_6.s081_lab3_pagetables
当我第一次学习它,还是一个学生的时候,我想它是很直接的,能有多难,就是一个表要将虚拟地址映射到物理地址。或许有点复杂,但不是那么复杂。只有当用它编程时,我才知道虚拟内存是巧妙的,迷人的,非常强大。
在本次实验中,您将探索页表并修改它们以简化将数据从用户空间复制到内核空间的函数。在讲解实验之前,我们先要了解页表结构。
页表(pagetable)是用来干什么的?页表的作用是地址翻译,从Virtual Address(VA)到Physical Address(PA),CPU将VA传递给MMU,MMU通过查询页表得到PA,实现地址翻译。也就是说页表是一个实现了key-value功能的数组,索引表示的是虚拟地址,数组的值表示物理地址。值得注意的是,页表存储在什么地方呢?页表存储在内存中,只需要告诉MMU页表的内存地址,这个地址应当是物理地址,我们不能让地址翻译依赖于另一个翻译,否则可能会陷入递归的无限循环中。
如何解决页表占用内存过大呢?
- 不要为每个地址创建一个表单条目,而是为每个page创建一条表单条目
- 多级页表
我们首先来了解一下pagetable是如何实现的:
页表
页表的实现
假设一个page的大小为4kb,对于虚拟地址,将它划分为两部分,index和offset,index用来查找page,offset对应的是一个page中的哪个字节。当MMU在做地址翻译的时候,通过读取虚拟内存地址中的index可以知道物理内存中的page号,这个page号对应了物理内存中的4096个字节。之后虚拟内存地址中的offset指向了page中的4096个字节中的某一个,假设offset是12,那么page中的第12个字节被使用了。将offset加上page的起始地址,就可以得到物理内存地址。
以上图为例,每个页表仍然需要2^27个条目,每个条目占8个字节,每个页表占内存1GB,而且每个进程都会有一个页表,这仍然是不能接受的。到目前位置,最大的问题是即使应用程序所引用的只是虚拟地址空间中很小的一部分,也总是需要一个完整的页表驻留在内存中。(上述例子来源于博客)
多级页表
以xv6使用的RISC-V框架为例,使用三级页表。我们之前所说的VA中的27bit的index,实际上是由3个9bit的数字组成(L2,L1,L0)。对于L2,其被用来索引最高级的page directory,directory中的一个条目被称为PTE(Page Table Entry)是64bit,而一个page directory是4KB,这样的话,一个PT中就有512个PTE,也就是说我们的L2的9bit可以对应一个page directory的PTE,而PTE的组成部分是PPN+Flags,这个PPN指向中间级的page directory。同理,我们使用L1找到中间级page directory的PPN,在最低级的pagedirectory,我们可以得到对应于虚拟内存地址的物理内存地址。
多级页表相较于一级页表,能大大减少pagetable的大小,优化空间。
x86页表的实现
x86页表在物理内存中像一棵两层的树,也就是两级页表。树的根是一个4096字节的页目录,其中包含1024个PTE的条目(每个条目占4字节),每个条目是指向一个页表页,每个页表页包含1024个32位PTE的数组(PTE就是虚拟地址到物理地址映射的条目),如下图所示:
如上图所示,一个虚拟地址有32位,10位Dir,10位table,10位offset。首先,要用10位Dir找到相应的页表页,然后使用10位table找到相应页表页中对应的PTE,然后将虚拟地址的前20位(即dir+table)变成PPN,这样就得到了32位PPN+Offset,即物理地址。
xv6对页表的使用
这个是xv6中PTE的结构,其中,53-10位是PPN,余下几位是flag位,弄懂标志位的含义对本实验至关重要,第0位V表示该PTE是否可用,第1位R表示该PTE是否可读;第2位W表示该PTE是否可写;第3位X表示是否可执行的。
虚拟内存有两个主要的优点:
- 隔离性:虚拟内存使得操作系统可以为每个应用程序提供属于他们自己的地址空间,所以一个应用程序不可能有意无意修改另一个应用程序的内存数据。虚拟内存同时也提供了用户空间和内核空间隔离性。
- 提供了一层抽象:处理器和所有的指令都可以使用虚拟地址,而内核会定义从虚拟地址到物理地址的映射关系。
Print a page table
该任务是编写一个打印页表内容的函数,定义一个名为vmprint()
的函数。
在 exec.c 中的return argc
之前插入if(p->pid==1) vmprint(p->pagetable)
,以打印第一个进程的页表。也就是说
这个pagetable_t参数指的就是进程的页表号,或者说对应的页表中的首地址(暂时来看这是最好的理解)。
在riscv.h中定义了如下所示的宏,也就是说pagetable_t参数是一个uint64类型的指针,一个页表有512个PTE。
1 |
|
1.我们在exec.c的return argc
前加入下列代码:
1 |
|
2.我们在defs.h中定义vmprint函数的原型,以便在exec.c中调用它:
1 |
|
3.编写vmprint函数如下所示:
1 |
|
如果PTE_V==1,则说明该页表项有效。如果pte中的PTE_R、PTE_W和PTE_X位都是0,则说明有下一级页表,可以通过递归进入下一级页表。
A kernel page table per process
xv6为每个进程的用户地址空间提供一个单独的页表,然而从用户态进入内核态中,多个进程使用的是一个内核页表。这个任务的目标是让每一个进程进入内核态后,都能有自己的独立内核页表。
首先,我们要在进程的结构体proc中添加一个pagetable_t kernel_pagetable
,表示每个进程在内核态中有自己独立的内核页表,结构体如下所示:
1 |
|
至于proc结构体在下一个实验前细说。
在kernel/vm.c
中,我们发现了如下变量:
1 |
|
这就是我们内核中的唯一的kernel_pagetable
,在原版本中,vm.c中的void kvminit(void)
会调用kvmake函数来修改kernel_pagetable,那么现在我们需要修改kvminit函数,来让我们的每个进程在内核中都有自己的内核页表。我们先来看看原版本中的实现:
1 |
|
我们可以模仿内核页表初始化的方式初始化用户进程的kernel pagetable。
1 |
|
Simplify copyin/copyinstr
本博客所有文章除特别声明外,均采用 CC BY-SA 4.0 协议 ,转载请注明出处!