首页>>后端>>Golang->高性能 Go 语言发行版优化与落地实践

高性能 Go 语言发行版优化与落地实践

时间:2023-12-01 本站 点击:0

0. 前言

0.1 性能优化的基本问题

性能优化是什么?

提升软件系统处理能力,减少不必要消耗,充分发掘计算机算力

为什么要做性能优化?

提高用户体验

资源高效利用:降低成本,提高效率——很小的优化乘上海量机器会显著提升性能提升和节约成本

0.2 性能优化的层面

业务层优化

针对特定场景,具体问题,具体分析

容易获得较大性能收益

语言运行时优化

解决更通用的性能问题

考虑更多场景

Tradeoffs

数据驱动

自动化性能分析工具 —— pprof

依靠数据而非猜测

首先优化最大瓶颈

0.3 性能优化与软件质量

软件质量

保证接口稳定的前提下改进实现

测试用例:覆盖尽可能多的场景,方便回归

文档:告诉用户这一项优化做了什么,没做什么,能达到怎样的效果

隔离:优化代码用选项和原先的路径隔离,保证优化未启用时的行为同以前一致

可观测、可灰度、可回滚:必要的日志输出

总结

性能优化的基本问题

性能优化的两个层面

性能优化的可维护性

1. 自动内存管理

动态内存:

程序在运行时根据需求动态分配的内存: malloc()

自动内存管理( 垃圾回收):由程序语言的运行时系统管理动态内存

避免手动内存管理,专注于实现业务逻辑

保证内存使用的正确性和安全性: double-free problem, use-after-free problem

三个任务

为新对象分配空间

找到存活对象

回收死亡对象的内存空间

Concurrently是什么意思?

Mutator threads指的是什么?接下来我们讲讲相关概念

1.1 自动内存管理-相关概念

Mutator: 业务线程,分配新对象,修改对象指向关系

Collector: GC 线程,找到存活对象,回收死亡对象的内存空间

3️⃣清理:回收所有不可达对象占据的内存空间

Copying GC: 将存活对象从一块内存空间复制到另外一块内存空间,原先的空间可以直接进行对象分配

年轻代(Young generation)

常规的对象分配

由于存活对象很少,可以采用copying collection

GC吞吐率很高

老年代(Old generation)

对象趋向于一直活着,反复复制开销较大

可以采用mark- sweep collection

1.4 引用计数

每个对象都有一个与之关联的引用数目

对象存活的条件:当且仅当引用数大于 0

(灰色的就能被清理掉了)

优点

内存管理的操作被平摊到程序运行中:指针传递的过程中进行引用计数的增减

不需要了解 runtime 的细节:因为不需要标记 GC roots,因此不需要知道哪里是全局变量、线程栈等

缺点

维护引用计数开销大,因为对象可能会被多线程访问,对引用计数的修改需要原子操作保证原子性和可见性

无法回收环形数据结构

内存开销:每个对象都引入额外存储空间存储引用计数

虽然引用计数的操作被平摊到程序运行过程中,但是回收大的数据结构依然可能引发暂停

说明

以上我们所讲述的技术的缺点并非是无法解决的问题。学术界和工业界在一直在致力于解决自动内存管理技术的不足之处。例如,最新的 PLDI'22 的文章 Low-Latency, High-Throughput Garbage Collection 感兴趣的同学可以阅读。

总结:

自动内存管理的背景和意义

概念和评价方法

追踪垃圾回收

引用计数

分代GC

学术界和工业界在一直在致力于解决自动内存管理技术的不足之处

PLDI'22 Low-L _atency, High- Throughput Garbage Collection

2. Go 内存管理及优化

2.1 Go 内存分配-分块

TCMalloc: TC is short for thread caching

目标:为对象在 heap 上分配内存

提前将内存分块

调用系统调用 mmap() 向 OS 申请一大块内存,例如 4 MB

先将内存划分成大块,例如 8 KB,称作 mspan

再将大块继续划分成特定大小的小块,用于对象分配

noscan mspan: 分配不包含指针的对象 —— GC 不需要扫描

scan mspan: 分配包含指针的对象 —— GC 需要扫描

对象分配:根据对象的大小,选择最合适的块返回

2.2 Go内存分配-缓存

Go 内存管理构成了多级缓存机制,从 OS 分配得的内存被内存管理回收后,也不会立刻归还给 OS,而是在 Go runtime 内部先缓存起来,从而避免频繁向 OS 申请内存。内存分配的路线图如下。

TCMalloc: thread caching

每个p包含一个mcache用于快速分配,用于为绑定于p上的g分配对象

mcache管理一组mspan

当mcache中的mspan分配完毕,向mcentral申请带有末分配块的mspan

当mspan中没有分配的对象,mspan会被缓存在mcentral中,而不是立刻释放并归还给OS

2.3 Go 内存管理优化

mspan, mcache 和 mcentral 构成了内存管理的多级缓存机制。

对象分配是非常高频的操作:每秒分配 GB 级别的内存

线上 profiling 发现,Go 的内存分配占用很多 CPU

可以看到,用于分配对象的函数 mallocgc() 占用 CPU 较高

小对象分配占大多数

横轴是对象大小,纵轴是数目,可以看到绝大多数对象都小于 80 B。因此优化小对象分配是关键。

字节跳动的优化方案

Balanced GC

核心:将 noscan 对象在 per-g allocation buffer (GAB) 上分配,并使用移动对象 GC 管理这部分内存,提高对象分配和回收效率

每个 g 会附加一个较大的 allocation buffer (例如 1 KB) 用来分配小于 128 B 的 noscan 小对象

bump pointer 风格的对象分配。示意如下。

 if g.ab.end - g.ab.top < size {     // Allocate a new allocation buffer } addr := g.ab.top g.ab.top += size return addr

分配对象时,根据对象大小移动 top 指针并返回,快速完成一次对象分配

同原先调用 mallocgc() 进行对象分配的方式相比,balanced GC 缩短了对象分配的路径,减少了对象分配执行的指令数目,降低 CPU 使用

2.4 Balanced GC

GAB对于Go内存管理来说是一个对象

本质:将多个小对象的分配合并成一次达对象的分配

问题: GAB的对象分配方式会导致内存被延迟释放

方案:移动GAB中存活的对象

当GAB总大小超过一定阈值时,将GAB中存活的对象复制到另外分配的GAB中

原先的GAB可以释放,避免内存泄漏

本质:用copying GC的算法管理小对象

从 Go runtime 内存管理模块的角度看,一个 allocation buffer 其实是一个大对象。本质上 balanced GC 是将多次小对象的分配合并成一次大对象的分配。因此,当 GAB 中哪怕只有一个小对象存活时,Go runtime 也会认为整个大对象(即 GAB)存活。为此,balanced GC 会根据 GC 策略,将 GAB 中存活的对象移动到另外的 GAB 中,从而压缩并清理 GAB 的内存空间,原先的 GAB 空间由于不再有存活对象,可以全部释放,如下图所示。

总结:

Go内存管理一分块

Go内存管理一缓存

Go对象分配的性能问题

分配路径过长

小对象居多

Balanced GC

指针碰撞风格的对象分配

实现了copying GC

性能收益

3. 编译器和静态分析

3.1 编译器的结构

重要的系统软件

识别符合语法和非法的程序

生成正确且高效的代码

分析部分(前端front end )

词法分析,生成词素(lexeme)

语法分析,生成语法树

语义分析,收集类型信息,进行语义检查

中间代码生成,生成intermediate representation (IR)

综合部分(后端 back end )

代码优化,机器无关优化,生成优化后的IR

代码生成,生成目标代码

分析A.foo( ) ,还是B.foo( ) ?

总结:

编译器的结构与编译的流程

编译器后端优化

静态分析

数据流分析和控制流分析

过程内分析和过程间分析

4. Go 编译器优化

目的

通用的优化手段

用户无感知,重新编译即可获得性能收益

现状

追求编译时间短,因此没有进行复杂的代码分析和优化

采用的优化较少

编译器优化的思路

Tradeoff:用适当增加编译时间换取更高性能的代码

场景:面向后端长期执行的任务

Beast mode

循环展开

边界检查消除

默认栈大小调整

逃逸分析

函数内联

4.1 函数内联

定义:将被调用函数的函数体的副本替换到调用位置上,同时重写代码以反映参数的绑定

优点

消除调用开销,例如传递参数、保存寄存器

将过程间分析的问题转换为过程内分析,帮助其他分析,例如逃逸分析

小技巧:使用micro-benchmark 快速验证和对比性能优化结果

缺点

函数体变大

编译生成的 Go 镜像文件变大

函数内联在大多数情况下是正向优化,即多内联,会提升性能

采取一定的策略决定是否内联

调用和被调用函数的规模

4.2 Beast Mode

Go函数内联受到的限制较多

语言特性,例如interface, defer等,限制了函数内联

内联策略非常保守

Beast mode:调整函数内联的策略,使更多函数被内联

降低函数调用的开销

增加了其他优化的机会:逃逸分析

开销

Go 镜像大小略有增加

编译时间增加

运行时栈扩展开销增加

逃逸分析

定义:分析代码中指针的动态作用域,即指针在何处可以被访问

大致思路

作为参数传递给其他函数;

传递给全局变量;

传递给其他的 goroutine;

传递给已逃逸的指针指向的对象;

从对象分配处出发,沿着控制流,观察数据流。

若发现指针 p 在当前作用域 s:

则指针 p 逃逸出 s,反之则没有逃逸出 s.

Beast mode:函数内联拓展了函数边界,更多对象不逃逸

优化:未逃逸出当前函数的指针指向的对象可以在栈上分配

对象在栈上分配和回收很快:移动 sp 即可完成内存的分配和回收;

减少在堆上分配对象,降低 GC 负担。

Beast Mode-性能收益

总结:

Go编译器优化的问题

Beast mode

函数内联

逃逸分析

通过micro-benchmark快速验证性能优化

性能收益

课程总结

本节课程:高性能Go语言发行版优化与落地实践

性能优化

自动内存管理

Go内存管理

编译器与静态分析

编译器优化

实践

Balanced GC优化对象分配

Beast mode提升代码性能

分析问题的方法与解决问题的思路,不仅适用于Go语言,其他语言的优化也同样适用

原文:https://juejin.cn/post/7097538236087533604


本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如若转载,请注明出处:/Golang/5868.html