通过例子学习,一个仅有 return 的主函数编译全流程:

本步骤主要涉及的语法为主函数和 return 语句,完成本步骤之后,你的编译器将支持将一个仅有 return 的主函数编译为 32 位 RISC-V 汇编代码,并通过 RISC-V 工具链生成可以在硬件模拟器上正确运行的程序。因为这是大家首次接触 MiniDecaf 编译实验框架,我们给大家的代码框架中已经包含所有 step1 的实现,大家可以直接运行通过 step1 的测试用例。并且,我们在每个步骤的文档中会详细梳理介绍在当前步骤中需要用到的知识点以及对应的代码片段和注释,如果我们认为当前步骤并不需要了解某部分知识点(如数据流分析、寄存器分配),我们会在后续的步骤中进行知识点的讲解。

下面我们将通过一个简单的 step1 测试用例,一起走过它的编译全流程:

int main() {
    return 2024;
}

词法分析 & 语法分析

在词法分析 & 语法分析这一步中,我们需要将输入的程序字符流按照语法规范转化为后续步骤所需要的 AST,我们使用了 lex/yacc 库来实现这一点。yacc 是一个根据 EBNF 形式的语法规范生成相应 LALR parser 的工具,支持基于属性文法的语法制导的语义计算过程。你可以根据我们的框架中对 lex/yacc 的使用,结合我们的文档,来快速上手 lex/yacc,完成作业;也可以选择阅读一些较为详细的文档,来系统地进行 lex/yacc 的入门,但这不是必须的。

在实验框架中,我们使用的是 lex/yacc 的一个纯 python 实现,称为 python-lex-yacc(简称 ply),其使用方法与 lex/yacc 有一些差异。

Python-lex-yacc 快速入门

程序的入口点在 main.py,它通过调用 frontend.parser.parser(位于 frontend/parser/ply_parser.py)来完成语法分析的工作,而这一语法分析器会自动调用位于 frontend/lexer/ply_lexer.py 的词法分析器进行词法分析。语法的定义和语法分析器都位于 frontend/parser/ply_parser.py,而词法的定义位于 frontend/lexer/lex.py。AST 节点的定义位于 frontend/ast/tree.py 中。以下表示中的符号都出自于这几个文件。

这部分的工作流程如下:

                  读内容       词法分析 & 语法分析              语义分析
                 readCode       parser.parse    Namer.transform & Typer.transform
MiniDecaf 源文件 --------> 字节流 -----------> AST -------------------------------> ...

当程序读入程序的字符流之后,它首先会被 lexer 处理,并被转化为如下形式的一个 Token 流:

Int Identifier("main") LParen RParen LBrace Return Integer(2024) Semi RBrace

frontend/lexer/lex.py文件中你可以看到每个 Token 是如何定义的,每个token都会以t_开头。如t_Semi = ";"代表分号被解析以后会转化为 Semi 这个Token。而对于一些复杂的 Token,我们需要在lexer中定义一个正则表达式来匹配它,lex中通过定义一个函数来实现正则匹配。以匹配整数为例,函数的第一行r"[0-9]+"代表匹配用到的正则表达式,而函数的参数t则是被匹配得到的字符串,我们通过python中的类型转换将其变为一个整数,你可以在文件中看到以下代码:

def t_Integer(t):
    r"[0-9]+"  # can be accessed from `t_Interger.__doc__`
    t.value = int(t.value)
    return t

之后,这些 token 会被 yacc 生成的 LALR(1) parser 转化为如下形式的 AST:

Program
    |- (children[0]) Function
        |- (ret_t) TInt
        |- (ident) Identifier("main")
        |- (body) Block
            |- (children[0]) Return
                |- (expr) IntLiteral(2024)

得到的 AST 也就是 main.pystep_parse 这一函数里 parser.parse(...) 的输出。

frontend/parser/ply_parser.py文件中,你可以看到我们是如何定义语法规则的,文件的最末尾有parser = yacc.yacc(start="program")代表了parser的入口点是program,而program的定义在p_program函数中,你可以看到这个函数的docstring中定义了program的语法规则。注意docstring(即三个引号之间的内容)在这里并非注释,而是用于定义语法规则。

def p_program(p):
    """
    program : function
    """
    p[0] = Program(p[1])

def p_function_def(p):
    """
    function : type Identifier LParen RParen LBrace block RBrace
    """
    p[0] = Function(p[1], p[2], p[6])

我们先看p_program函数,我们定义的语法规则是program由一个function组成,对应的上下文无关表达式就是program -> function,同时代码中的p[0] = Program(p[1])代表了构建AST的计算过程,这里的p[0]代表的是当前语法规则的左部,p[1]代表的是当前语法规则的右部第一个符号(即function),p[2]代表的是当前语法规则的右部第二个符号(这里没有),以此类推。这样递归下去,就能解析完整个程序。p[0] = Program(p[1])最后就会变为p[0] = Program(Function(...)),这里ProgramFunction类的定义在frontend/ast/tree.py文件中,你可以看到Function这个类的构造函数接受了三个参数,分别是返回值类型、函数名和函数体。

尝试运行 python main.py --input example.c --parse 你应该就能看到类似的输出。(记得自己写一个example.c

语义分析

在 step1 语义分析步骤中,我们要遍历 AST,检验是否存在如下的语义错误:

  • main 函数是否存在。(frontend/typecheck/namer.py:37

在实际操作中,我们遍历 AST 所用的方法就是的 Visitor 模式,通过 Visitor 模式,我们可以从抽象语法树的根结点开始,遍历整颗树的所有语法结点,并针对特定的语法结点作出相应的操作,如名称检查和类型检查等。在编译器中,这种基于 Visitor 的对语法树进行一次遍历,完成某种检查或优化的过程,称为遍(pass)。不难想到,一个现代编译器是由很多遍扫描组成的,如 gcc 根据优化等级不同会有数百个不等的 pass。下面,我们将指出,step1 中我们是如何实现符号表构建 pass 和类型检查 pass 的,同学们可以选择去看相应的代码注释与实现细节。

frontend/typecheck/namer.pytyper.py 分别对应了符号表构建和类型检查这两次遍历。在框架中,NamerTyper 都是继承 frontend/ast/visitor.py 中的 Visitor 类来通过 Visitor 模式遍历 AST 。

中间代码生成

在通过语义检查之后,编译器已经掌握了翻译源程序所需的信息(符号表、类型等),下一步要做的则是将抽象语法树翻译为便于移植和优化的中间代码,在本实验框架中就是三地址码。如何翻译抽象语法树?当然还是无所不能的 Visitor 模式,我们在中间代码生成步骤中再遍历一次语法树,对每个结点做对应的翻译处理。具体来说,在 step1 当中,我们只需要提取 return 语句返回的常量,为之分配一个临时变量,再生成相应的 TAC 返回指令即可。不难看出,本例对应的三地址码为:

main:           # main 函数入口标签
    _T0 = 2024  # 为立即数 2024 分配一个临时变量
    return _T0  # 返回

下面,我们同样也指出了在代码中我们是怎样实现这个中间代码生成 pass 的,大家可以参考注释和代码了解实现细节。

utils/tac 目录下实现了生成 TAC 所需的底层类。其中 tacinstr.py 下实现了各种 TAC 指令,同学们可以在必要时修改或增加 TAC 指令。

frontend/tacgen/tacgen.py 中通过一遍 AST 扫描完成 TAC 生成。和语义分析一样,这部分也使用了 Visitor 模式。这个文件里除了类型TACGen之外还有一个辅助类TACFuncEmitter,它用于处理产生TAC代码过程中一些相对底层的细节。在本框架中,TAC 程序的生成以函数为单位,对每个函数(step1-8 中只有 main 函数)分别使用一个 TACFuncEmitter 来生成对应的 TAC 函数代码。如果你增加了 TAC 指令,则可能需要在 TACFuncEmitter 类中增加生成相应指令的代码。

目标代码生成

目标代码生成步骤是对中间代码的再一次翻译,在本例中,你需要了解并掌握的知识点有:

  1. 如何将一个立即数装载到指定寄存器中?

    RISC-V 提供了 li 指令来支持加载一个 32 位立即数到指定寄存器中,其中 表示寄存器名, 表示立即数值,如:li t0, 2024,就是将立即数 2024 加载到寄存器 t0 中。

  2. 如何设置返回值?

    在 RISC-V 中,a0 和 a1 是 gcc 调用约定上的存储返回值的寄存器,返回值会按照其大小和顺序存储在 a0 和 a1 中。也就是说,如果你有一个 32 位的返回值,你可以放在 a0 中返回,如果你有两个 32 位的返回值,你就需要把它们分别放在 a0 和 a1 中返回。更多的返回值会全部放入内存返回,如约定好的栈的某个位置,这取决于函数调用约定。

    在我们的实验要求中,返回值均是单个 32 位的值。因此在当前步骤中你只需要了解,将需要返回的值放入 a0 寄存器中,然后在后面加上一条 ret 指令即可完成函数返回的工作。

综上所述,我们上述中间代码翻译成如下 RISC-V 汇编代码:

    .text         # 代码段
    .global main  # 声明全局符号 main
main:             # 主函数入口符号
    li t0, 2024   # 加载立即数 2024 到 t0 寄存器中
    mv a0, t0     # 将返回值放到 a0 寄存器中
    ret           # 返回

实验框架中关于目标代码生成的文件主要集中 backend 文件夹下,step1 中你只需要关注 backend/riscv 文件夹中的 riscvasmemitter.py 以及 utils/riscv.py 即可。具体来说 backend/asm.py 中会先调用 riscvasmemitter.py 中的 selectInstr 方法对每个函数内的 TAC 指令选择相应的 RISC-V 指令,然后会进行数据流分析、寄存器分配等流程,在寄存器分配结束后生成真正的汇编指令(即所有操作数都已经分配好寄存器的指令),最后通过 RiscvSubroutineEmitteremitFunc 方法生成每个函数的 RISC-V 汇编。

思考题

  1. 在我们的框架中,从 AST 向 TAC 的转换经过了 namer.transform, typer.transform 两个步骤,如果没有这两个步骤,以下代码能正常编译吗,为什么?

     int main(){
         return 10;
     }
    
  2. 我们的框架现在对于 return 语句没有返回值的情况是在哪一步处理的?报的是什么错?

  3. 为什么框架定义了 frontend/ast/tree.py:Unaryutils/tac/tacop.py:TacUnaryOputils/riscv.py:RvUnaryOp 三种不同的一元运算符类型?

results matching ""

    No results matching ""

    results matching ""

      No results matching ""