操作系统MIT 6.S081 xv6内核(十一):Memmory Map实验
mmap实验
这个实验算是我花时间最长的实验了,定位问题和解决问题的时间大概是4:1,除了信手沾来的大佬,我认为很难按照hints从头写到尾写完解决完所有报错就顺利过关,因为有时候甚至很难确定问题的具体位置。这个实验很有必要听从Robert教授的之前教导,不要想着一次实现所有功能,尝试先实现一点,调试成功再去继续;因此本次实验概述既参考了hints本身固有逻辑,更多是从调试步骤解决,我相信这样的思路会为读者省下很大一部分定位问题的时间。另外,这个实验设计应该是有bug的,这部分疑惑连同debug问题被记录在Q&A;
实验目的
这个实验意在为xv6加入文件映射内存特性,所谓文件映射内存,就是将文件直接map到某个内存,直接对文件进行读写,绕过了read/write文件调用系统调用、将数据读到内核缓冲区再拷贝用户空间的过程,实现高效率的文件修改;文件映射内存涉及的内容还是比较综合的,要求有文件操作、内存映射,此外文件不可能常驻内存,因此必然采用了Page
Fault机制来进行懒分配、就需要处理系统陷入,可见它几乎综合了前面的所有实验特性,设计不能不说别出心裁;
此外,本实 ...
深入理解计算机系统CMU-15213 CSAPP(一):环境搭建
卡内基·梅隆大学的这个CSAPP项目,几乎是计算机科学领域受众最广的项目了,在国内这个项目的参与者更是数不胜数,该项目涉及很多方面,例如汇编编译、操作系统、网络、并行等领域,项目使用的编程语言是C,分为八个Lab,深受CS专业、Java/Go以及11408选手们的爱戴。尽管博主是平平无奇的EE学生,四舍五入也算CS的半个同行了,这个项目在我这里优先级并不大,就当作一些阅读和记录随写了,时间会拉很长,可能做完这个项目就差不多过年了。
环境搭建
基本环境:
Ubuntu 18.04
VMware 16
Vscode+SSH
虽说博客很多,但是从环境搭建开始介绍的还真没多少,但还是找到了林夕的gitee仓库,佬将安装命令都整理成脚本了,Ubuntu
20.04及以下的都可以直接使用这个脚本安装,因此我记录下的基本都是这个脚本的内容,请参考大佬的origin分支installAll.sh即可;
可以直接运行并安装: 1wget https://gitee.com/lin-xi-269/csapplab/raw/origin/installAll.sh&& ...
Stanford CS144 For Computer Network(二):Lab0 Networking Warmup
Lab0 Networking Warmup
Lab0实验手册: https://vixbob.github.io/cs144-web-page/assignments/lab0.pdf(2021
Fall)
部分实验目的和内容摘抄自手册。
Networking by hand
这一小节只是简单的网络实验,不涉及代码,围绕telnet、netcat的一些操作展开,无兴趣的可以跳过。
Fetch a Web page
打开浏览器,访问http://cs144.keithw.org/hello,你会看到Hello, CS144!;
现在虚拟机可以做同样的事情,Linux下运行: 1telnet cs144.keithw.org http
这个命令建立你和另一台计算机(cs144.keithw.org)的可靠字节流,并且运行万维网使用的http(Hyper-Text
Transfer
Protocol,超文本传输协议)服务。telnet和ssh类似,都是用于远程登录或管理设备的网络协议,但telnet的数据以明文发送,仅支持基本用户名-命名验证,没有文件传输能力,基本 ...
Stanford CS144 For Computer Network(一):环境搭建
大三学过计算机网络,后面就没有碰过这门课了。那时候的教材是谢希仁教授的《计算机网络》,为了应付期末考试还将课件和资料整理成了上万字的文档,放到校内网去低价出售,不知道光顾的那几位老哥考得咋样,可能不如多看几道课后题考得高分,多少有点误人子弟(哭),计算机网络是一个庞大的课程,往下它可以和硬件层各种协议交流,网上它需要提供应用层的各种软件接口,作为EE专业的主修课,授课的时候更倾向于信号处理、电路连接等联系,后面选修的《网络体系空间结构》更是承接了这个特点,几乎没有从代码的角度构建过这些通信协议,Stanford
CS144利用C++以及容器算法,围绕TCP协议开展实验,技术栈还是比较匹配的,就尝试做做吧。
一个有意思的插曲是斯坦福的老师在2019年开源了这个项目,后续又出了2021、2023等多个版本,但是后面因为考虑到自己的学生可能会直接从开源仓库获取答案,遂关闭了官方仓库,要求其他仓库克隆者也应该将仓库转为private,一位清华大佬希望只去除“CS144”防止被google索引,而且回复道:
I think opensourcing is irrelevant to w ...
操作系统MIT 6.S081 xv6内核(十):File System实验
前置提醒
fs分支的文件系统布局和常规xv6布局是不一样的,常规情况下,文件系统的磁盘布局是:46个元数据块(boot、super、30
log、13 inode 、1
bitmap)、954个数据块;fs分支下:70个元数据块(boot、super、30
log、13 inode 、25
bitmap)、199930个数据块;因为它需要支持二级Inode索引,知晓这点再去看代码(指系统代码,不是实验代码)才会理解。
Large files实验
实验目的
看过Inode层理论或者我的基础理论一文,就知道xv6文件大小的限制是每个Inode只能存放256+12个块大小,因此这里需要我们牺牲一个Direct
Number,用于创建二级Indirect Number,这种提升是明显的,因为每个Indirect
Number指向256个,二级的Indirect Inode存储的块是11+256+256*256;
具体实现
这个实现比较简单,只要看一下kernel/fs.c哪些代码涉及间接Indirect
inode设计即可,即bmap函数和itrunc函数,前者负责将 ...
操作系统MIT 6.S081 xv6内核(九):Lock实验
Memory allocator实验
实验目的
目前的页帧分配共用一个大锁kmem.spinlock和一个共用空闲页帧链表kmem.freelist,也即无论哪个CPU想要通过kalloc获取页帧,都需要首先从这个共享的数据结构获取锁和页帧,理论和实验表明这个设计是导致race condition最严重的事件之一,导致性能瓶颈;本节的实验旨在通过为每个CPU都维护一个独享的锁和页帧空闲分配链表,以降低进程内存分配时的严重竞争条件。此外还需要考虑当当前CPU耗光页帧时,如何从其他的CPU安全地“窃取”空闲页帧。
具体实现
从kernel/param.h获知了系统最大CPU核心数定义,这也是CPU遍历的基本原理;
1#define NCPU 8 // maximum number of CPUs 通过kernel/proc.c函数可以获取当前CPU编号:
123456intcpuid() {int id = r_tp();return id;} 全部代码仅在kernel/kalloc.c修改即可:
将kmem设计 ...
操作系统MIT 6.S081 xv6内核(八):Multithreading实验
Uthread: switching
between threads实验
实验目的
实现一个用户级的线程切换:测试程序user/uthread.c会创建三个线程,每个线程打印一个语句,大部分逻辑已经完成,只剩下context切换逻辑。抢占式中断因为经过陷入机制,因此流程是比较繁琐的。核心的切换是在内核中调用yield,yield调用sched,sched做了一些故障检查,就调用了swtch,从这里我们会进入线程调度器线程,保存14个用户进程的内核寄存器,并且返回到scheduler函数调用的swtch函数,去除原来进程信息、释放锁,此后调度器又将另一个线程装载,调用swtch,并且从当前新进程的sched调用的swtch返回。继续执行陷入处理
直至恢复执行;
在用户级线程切换设计测试代码中,则省去了很多繁琐的跳转步骤;首先thread_schedule模拟了一部分scheduler函数功能,将线程存储在all_thread数组中,最大线程数量为4;线程初始化时取第一个线程,现在只需要解决两个问题:
线程如何执行程序?
如何实现线程的切换?
具体实现
直接看代码 ...
操作系统MIT 6.S081 xv6内核(七):Copy-On-Write Fork实验
Implement copy-on write实验
实验目的
本节实验不是最难的一个,但是逻辑细节比较多(所以坑也多),也让我花了不少时间去打印和调试。本节和上一节页懒分配类似,都是利用Page
Fault特性向xv6增加一些扩展。主要目的是,每次系统启动父进程会通过fork函数创建子进程,系统为子进程分配与父进程大小相当的空间,例如shell进程占4个页帧(4*4096字节),子进程也会分配新的4个字节;然而子进程很快就会被exec占据并且去运行其他进程,大部分情况下这新分配的空间没有被使用就被丢弃了,既浪费了内存也消耗了启动性能。
因此本节核心思想是在调用fork复制父进程时,不要直接为子进程分配物理内存,而是通过页表将子进程的虚拟地址也指向父进程的物理内存(暂且称其为COW内存);为了保证这个物理内存的安全,在共享后必须将物理内存的写权限取消成为只读内存,当子进程确实需要空间时,对该物理内存进行写操作就会造成Page
Fault;而又为了区分进程是对这种COW内存操作,还是真的误读了其他只读的页帧,我们需要引入新的标志位PTE_COW来区分两种只读页面。
为了处理这个 ...
操作系统MIT 6.S081 xv6内核(六):Lazy Page Allocation实验
Eliminate allocation from
sbrk()实验
没有实验,只谈现象
这是Fans教授在课上提到的现象,在基础理论一文的Lazy
Allocation一节我也具体剖析过,看完不难理解:只增加了虚拟内存,uvmunmap释放了虚拟内存指向的不存在的物理内存。
Lazy allocation实验
实验目的
实现一个简单的Lazy
allocation,要求进程使用sbrk进行内存分配时不要直接满足,引入懒分配策略等到进程使用到了再申请物理内存,如果设计是成功的,那么shell能够正常运行echo hi命令。
具体实现
这是一个简单的Lazy
allocation实现,在基础理论已经实现并且做了剖析讨论,看过基础理论或者课程的可以直接跳到第三个实验。具体步骤是在kernel/sysproc.c中sbrk函数增加虚拟内存,取消物理内存分配
123 myproc()->sz=myproc()->sz+n;//new//if(growproc(n) < 0)// return -1; 这个改动会得到page
fault,因此需要在k ...
VMware Ubuntu配置静态IP
以前习惯在VMware直接做命令,现在使用Vscode比较多。但是远程SSH的问题在于虚拟机会不定期更新内网IP,规律是:重启不一定更新、关机不一定更新,电脑关盖子睡眠一定更新。。。非常奇怪,导致每次都要重新打开工作区。
尝试配置静态IP,环境为:
Ubuntu 18.04
VMware 16
NAT模式
总体而言基本没有遇到困难,但是发行版不同、文件、步骤都不一样,也容易踩坑,所以记录一下。
Win10打开“虚拟网络编辑器”,选中NAT桥接VMnet8,设置子网IP和子网掩码;子网IP第三个网段自行设置成以前常用的。
进入NAT设置,将网关设置成“192.168.xxx.1”,xxx和步骤1保持一致。
Win10打开设置——更改适配器选项;
在Ipv4协议属性中设置IP地址,子网掩码,默认网关和DNS;默认网关保持和刚刚设置的一致。
上面的IP只是基本的设置,还不是我们要设置的静态IP
进入虚拟机,如无意外/etc/netplan下会存在一个yaml网络配置文件,按照下文增加和修改配置,addresses是要使用的静态IP,d ...
