sync包提供了基本的同步基元,如互斥锁。
除了Once和WaitGroup类型,大部分都是适用于低水平程序线程,高水平的同步使用channel通信更好一些。

  • Go语言中实现并发或者是创建一个goroutine很简单,只需要在函数前面加上”go”,就可以了。
  • 那么并发中,如何实现多个goroutine之间的同步和通信?

sync库

首先我们先来介绍一下sync包下的各种类型。

1. Cond 条件等待

type Cond struct {

        // L is held while observing or changing the condition
        L Locker
        // contains filtered or unexported fields
}

解释:
Cond实现了一个条件变量,一个线程集合地,供线程等待或者宣布某事件的发生。

每个Cond实例都有一个相关的锁(一般是*Mutex或*RWMutex类型的值),它必须在改变条件时或者调用Wait方法时保持锁定。Cond可以创建为其他结构体的字段,Cond在开始使用后不能被拷贝。

条件等待通过Wait让例程等待,通过Signal让一个等待的例程继续,通过Broadcase让所有等待的继续。

在Wait之前需要手动为c.L上锁,Wait结束了手动解锁。 为避免虚假唤醒,需要将Wait放到一个条件判断的循环中,官方要求写法:

c.L.Lock()
for !condition() {
    c.Wait()
}
// 执行条件满足之后的动作...
c.L.Unlock()

数据结构:

type Cond struct {
    L Locker // 在“检查条件”或“更改条件”时 L 应该锁定。
} 

// 创建一个条件等待
func NewCond(l Locker) *Cond

// Broadcast 唤醒所有等待的 Wait,建议在“更改条件”时锁定 c.L,更改完毕再解锁。
func (c *Cond) Broadcast()

// Signal 唤醒一个等待的 Wait,建议在“更改条件”时锁定 c.L,更改完毕再解锁。
func (c *Cond) Signal()

// Wait 会解锁 c.L 并进入等待状态,在被唤醒时,会重新锁定 c.L
func (c *Cond) Wait()

代码示例:

package main

import (
	"fmt"
	"sync"
	"time"
)

func main() {
	condition := false // 条件不满足

	var mu sync.Mutex
	cond := sync.NewCond(&mu) // 创建一个Cond

	//让协程去创造条件
	go func() {
		mu.Lock()
		condition = true // 改写条件
		time.Sleep(3 * time.Second)
		cond.Signal() // 发送通知:条件ok
		mu.Unlock()
	}()

	mu.Lock()

	// 检查条件是否满足,避免虚假通知,同时避免 Signal 提前于 Wait 执行。
	for !condition { // 如果Signal提前执行了,那么此处就是false了

		// 等待条件满足的通知,如果虚假通知,则继续循环等待
		cond.Wait() // 等待时 mu 处于解锁状态,唤醒时重新锁定。 (阻塞当前线程)

	}
	fmt.Println("条件满足,开始后续动作...")
	mu.Unlock()

}

2. Locker

type Locker interface {
    Lock()
    Unlock()
}

Locker接口代表一个可以加锁和解锁的对象。

3. Mutex 互斥锁

type Mutex struct {
    // contains filtered or unexported fields
}
  • Mutex 是互斥锁。
  • Mutex 的零值是一个解锁的互斥锁。
  • 第一次使用后不得复制 Mutex 。
  • 互斥锁是用来保证在任一时刻,只能有一个例程访问某个对象。
  • Mutex的初始值为解锁的状态。
  • 通常作为其他结构体的你名字段使用,并且可以安全的在多个例程中并行使用。

数据结构:

// Lock 用于锁住 m,如果 m 已经被加锁,则 Lock 将被阻塞,直到 m 被解锁。
func (m *Mutex) Lock()

// Unlock 用于解锁 m,如果 m 未加锁,则该操作会引发 panic。
func (m *Mutex) Unlock()

代码示例:

package main

import (
	"fmt"
	"sync"
)

type SafeInt struct {
	sync.Mutex
	Num int
}

func main() {
	waitNum := 10 // 设置等待的个数(继续往下看)

	count := SafeInt{}

	done := make(chan bool)

	for i := 0; i < waitNum; i++ {
		go func(i int) {
			count.Lock() // 加锁,防止其它例程修改 count
			count.Num = count.Num + i
			fmt.Print(count.Num, " ")
			count.Unlock()

			done <- true
		}(i)
	}

	for i := 0; i < waitNum; i++ {
		<-done
	}
}

运行结果:

    1 4 8 8 10 15 21 30 37 45

注意:多次输出结果不一致,
试想为什么会出现10个结果中有0值得,
为什么10个结果中都大于0呢?或者都大于1呢?
那么会不会出现10个结果中最小值是9 呢?

4. Once 单次执行

type Once struct {
    // contains filtered or unexported fields
}
  • Once是只执行一次动作的对象。
  • Once 的作用是多次调用但只执行一次,
  • Once 只有一个方法,Once.Do(),向 Do 传入一个函数,这个函数在第一次执行 Once.Do() 的时候会被调用,以后再执行 Once.Do() 将没有任何动作,
  • 即使传入了其它的函数,也不会被执行,如果要执行其它函数,需要重新创建一个 Once 对象。

数据结构:

// 多次调用仅执行一次指定的函数 f
func (o *Once) Do(f func())

代码示例:

package main

// 官方案例

import (
	"fmt"
	"sync"
)

func main() {
	var once sync.Once
	var num int
	onceBody := func() {
		fmt.Println("Only once")
	}

	done := make(chan bool)

	for i := 0; i < 10; i++ {
		go func() {
			once.Do(onceBody) // 多次调用
			done <- true
		}()
	}

	for i := 0; i < 10; i++ {
		<-done
	}
}

5. RWMutex 读写互斥锁

type RWMutex struct {
    // 包含隐藏或非导出字段
}
  • RWMutex是读写互斥锁。
  • 该锁可以被同时多个读取者持有或唯一个写入者持有。
  • RWMutex可以创建为其他结构体的字段;零值为解锁状态。
  • RWMutex类型的锁也和线程无关,可以由不同的线程加读取锁/写入和解读取锁/写入锁。
  • Mutex 可以安全的在多个例程中并行使用。

数据结构:

// Lock 将 rw 设置为写锁定状态,禁止其他例程读取或写入。
func (rw *RWMutex) Lock()

// Unlock 解除 rw 的写锁定状态,如果 rw 未被写锁定,则该操作会引发 panic。
func (rw *RWMutex) Unlock()

// RLock 将 rw 设置为读锁定状态,禁止其他例程写入,但可以读取。
func (rw *RWMutex) RLock()

// Runlock 解除 rw 的读锁定状态,如果 rw 未被读锁顶,则该操作会引发 panic。
func (rw *RWMutex) RUnlock()

// RLocker 返回一个互斥锁,将 rw.RLock 和 rw.RUnlock 封装成了一个 Locker 接口。
func (rw *RWMutex) RLocker() Locker

注意,Lock() 锁定时,其他例程是无法读写的。

  1. 可以读时, 多个goroutine可以同时读。
  2. 写的时候, 其他goroutine不可读也不可写。

代码示例:

package main

import (
	"fmt"
	"sync"
	"time"
)

var m *sync.RWMutex
var wg sync.WaitGroup

func main() {
	m = new(sync.RWMutex)
	wg.Add(2)
	go write(1)
	time.Sleep(1 * time.Second)
	go read(2)
	wg.Wait()
}
func write(i int) {
	fmt.Println(i, "写开始.")
	m.Lock()
	fmt.Println(i, "正在写入中......")
	time.Sleep(3 * time.Second)
	m.Unlock()
	fmt.Println(i, "写入结束.")
	wg.Done()
}
func read(i int) {
	fmt.Println(i, "读开始.")
	m.RLock()
	fmt.Println(i, "正在读取中......")
	time.Sleep(1 * time.Second)
	m.RUnlock()
	fmt.Println(i, "读取结束.")
	wg.Done()
}

运行结果:

1 写开始.
1 正在写入中......
2 读开始.
1 写入结束.
2 正在读取中......
2 读取结束.
> Elapsed: 4.747s
> Result: Success

当写入开始时,加写锁开始写入,一秒后,读取goroutine开始读取,发现有写入锁,只能等待。
2秒后写入完成,解除写锁,读取开始加锁,直到读取完成。

6. WaitGroup 组等待

type WaitGroup struct {
    // contains filtered or unexported fields
}
  • WaitGroup用于等待一组线程的结束。
  • 父线程调用Add方法来设定应等待的线程的数量。
  • 每个被等待的线程在结束时应调用Done方法。
  • 同时,主线程里可以调用Wait方法阻塞至所有线程结束(计数器归零)。

数据结构:

// 计数器增加 delta,delta 可以是负数。
func (wg *WaitGroup) Add(delta int)

// 计数器减少 1
func (wg *WaitGroup) Done()

// 等待直到计数器归零。如果计数器小于 0,则该操作会引发 panic。
func (wg *WaitGroup) Wait()

代码示例:

func main() {
	wg := sync.WaitGroup{}
	wg.Add(10)
	for i := 0; i < 10; i++ {
		go func(i int) {
			defer wg.Done()
			fmt.Print(i, " ")
		}(i)
	}
	wg.Wait()
}

输出是无序的。

注意此处有一个小坑,看代码:

func main() {
	wg := sync.WaitGroup{}
	for i := 0; i < 10; i++ {
		go func(i int) {
			wg.Add(1)
			defer wg.Done()
			fmt.Print(i, " ")
		}(i)
	}
	wg.Wait()
}

看输出,发现会小于10个,甚至一个也没有。
问题就在于goroutine执行时间和main程的退出时间问题,导致Add()是否执行。
再有就是复制和引用了,如果将wg复制给goroutine作为参数,一定要使用引用,否则就是两个对象了。

那么介绍完上面所有的类型后, 我把Pool留到了最后,这也是要重点讲的地方。

7. Pool 临时对象池

type Pool struct {
	noCopy noCopy

	local     unsafe.Pointer // local fixed-size per-P pool, actual type is [P]poolLocal
	localSize uintptr        // size of the local array

	// New optionally specifies a function to generate
	// a value when Get would otherwise return nil.
	// It may not be changed concurrently with calls to Get.
	New func() interface{}
}
  • Pool 用于存储临时对象,它将使用完毕的对象存入对象池中,在需要的时候取出来重复使用,目的是为了避免重复创建相同的对象造成 GC 负担过重。
  • 其中存放的临时对象随时可能被 GC 回收掉(如果该对象不再被其它变量引用)。
  • 从 Pool 中取出对象时,如果 Pool 中没有对象,将返回 nil,但是如果给 Pool.New 字段指定了一个函数的话,Pool 将使用该函数创建一个新对象返回。
  • Pool 可以安全的在多个例程中并行使用,但 Pool 并不适用于所有空闲对象,Pool 应该用来管理并发的例程共享的临时对象,而不应该管理短寿命对象中的临时对象,因为这种情况下内存不能很好的分配,这些短寿命对象应该自己实现空闲列表。
  • Pool 在开始使用之后,不能再被复制。

Pool的实现

1.定时清理

  • 文档上说,保存在Pool中的对象会在没有任何通知的情况下被自动移除掉。
  • 实际上,这个清理过程是在每次垃圾回收之前做的。
  • 垃圾回收是固定两分钟触发一次。
  • 而且每次清理会将Pool中的所有对象都清理掉!

2.如何管理数据

先看看这几个数据结构

type Pool struct {
	noCopy noCopy

	local     unsafe.Pointer // local fixed-size per-P pool, actual type is [P]poolLocal
	localSize uintptr        // size of the local array

	// New optionally specifies a function to generate
	// a value when Get would otherwise return nil.
	// It may not be changed concurrently with calls to Get.
	New func() interface{}
}

// Local per-P Pool appendix.
type poolLocalInternal struct {
	private interface{}   // Can be used only by the respective P.
	shared  []interface{} // Can be used by any P.
	Mutex                 // Protects shared.
}

type poolLocal struct {
	poolLocalInternal

	// Prevents false sharing on widespread platforms with
	// 128 mod (cache line size) = 0 .
	pad [128 - unsafe.Sizeof(poolLocalInternal{})%128]byte
}

Pool是提供给外部使用的对象

  • 其中的local成员的真实类型是一个poolLocal数组,localSize是数组长度。
  • poolLocal是真正保存数据的地方。
  • priveate保存了一个临时对象,shared是保存临时对象的数组。  

为什么Pool中需要这么多poolLocal对象呢?

实际上,Pool是给每个线程分配了一个poolLocal对象。
也就是说local数组的长度,就是工作线程的数量(size := runtime.GOMAXPROCS(0))。
当多线程在并发读写的时候,通常情况下都是在自己线程的poolLocal中存取数据。
当自己线程的poolLocal中没有数据时,才会尝试加锁去其他线程的poolLocal中“偷”数据。

func (p *Pool) Get() interface{} {
	if race.Enabled {
		race.Disable()
	} 
	l := p.pin()    //获取当前线程的poolLocal对象,也就是p.local[pid]。
	x := l.private
	l.private = nil
	runtime_procUnpin()
	if x == nil {
		l.Lock()
		last := len(l.shared) - 1
		if last >= 0 {
			x = l.shared[last]
			l.shared = l.shared[:last]
		}
		l.Unlock()
		if x == nil {
			x = p.getSlow()
		}
	}
	if race.Enabled {
		race.Enable()
		if x != nil {
			race.Acquire(poolRaceAddr(x))
		}
	}
	if x == nil && p.New != nil {
		x = p.New()
	}
	return x
}

为什么这里要锁住。
答案在getSlow中。

因为当shared中没有数据的时候,会尝试去其他的poolLocal的shared中偷数据。
Pool.Get的时候,首先会在local数组中获取当前线程对应的poolLocal对象。
如果private中有数据,则取出来直接返回。
如果没有则先锁住shared,有数据则直接返回。

Go语言的goroutine虽然可以创建很多,但是真正能物理上并发运行的goroutine数量是有限的,是由runtime.GOMAXPROCS(0)设置的。
所以这个Pool高效的设计的地方就在于将数据分散在了各个真正并发的线程中,每个线程优先从自己的poolLocal中获取数据,很大程度上降低了锁竞争。  

基准测试

既然说 pool 的优势这么大,我们可以用基准测试来看一下 使用池和不实用池的区别。
这里我们声明了一个非常简单的结构 S

package main

import (
    "sync"
    "testing"
)

type S struct {
    num int
}

func BenchmarkWithPool(b *testing.B) {
    var s *S
    var pool = sync.Pool{
        New: func() interface{} { return new(S) },
    }
    for i := 0; i < b.N; i++ {
        for j := 0; j < 10000; j++ {
            s = pool.Get().(*S)
            s.num = 1
            s.num++
            pool.Put(s)
        }
    }
}

func BenchmarkWithNoPool(b *testing.B) {
    var s *S
    for i := 0; i < b.N; i++ {
        for j := 0; j < 10000; j++ {
            s = &S{num: 1}
            s.num++
        }
    }
}

运行基准测试,

$ go test -bench=. -benchmem
goos: darwin
goarch: amd64
                                     
BenchmarkWithPool-4                10000            253269 ns/op               0 B/op          0 allocs/op
BenchmarkWithNoPool-4              10000            175742 ns/op           80000 B/op      10000 allocs/op

可以看到每次分配的内存 0 B vs 80000 B,每次内存分配次数 0 vs 10000。

因为每次测试,我们执行了10000次迭代,所以看到没使用池的内存单次分配是 8B(即 结构 S 占的内存),单次分配次数为 1次。

但是在每次执行的时间上使用池比不使用池是要多的,比较使用池涉及到池的维护,也算是正常的。

这样看来,在高并发的场景下,context 的复用率非常高,所带来的 GC 压力也更小,所以效率当然就高了。