print message when starting api server

master
kevin 4 years ago
parent a50bcb90a6
commit a561884fcf

@ -1,4 +1,4 @@
# 进程内共享调用SharedCalls
# 防止缓存击穿之进程内共享调用
go-zero微服务框架中提供了许多开箱即用的工具好的工具不仅能提升服务的性能而且还能提升代码的鲁棒性避免出错实现代码风格的统一方便他人阅读等等。
@ -8,69 +8,52 @@ go-zero微服务框架中提供了许多开箱即用的工具好的工具不
并发场景下可能会有多个线程协程同时请求同一份资源如果每个请求都要走一遍资源的请求过程除了比较低效之外还会对资源服务造成并发的压力。举一个具体例子比如缓存失效多个请求同时到达某服务请求某资源该资源在缓存中已经失效此时这些请求会继续访问DB做查询会引起数据库压力瞬间增大。而使用SharedCalls可以使得同时多个请求只需要发起一次拿结果的调用其他请求"坐享其成",这种设计有效减少了资源服务的并发压力,可以有效防止缓存击穿。
例如高并发情况下多个请求同时查询某用户信息以下是利用SharedCalls工具包实现的用户信息获取方法注意⚠go-zero框架中已经提供了针对此场景的代码实现以下代码只为说明SharedCalls的使用方式,具体可参看[sqlc](https://github.com/tal-tech/go-zero/blob/master/core/stores/sqlc/cachedsql.go)和[mongoc](https://github.com/tal-tech/go-zero/blob/master/core/stores/mongoc/cachedcollection.go)等处代码)
高并发场景下当某个热点key缓存失效后多个请求会同时从数据库加载该资源并保存到缓存如果不做防范可能会导致数据库被直接打死。针对这种场景go-zero框架中已经提供了实现,具体可参看[sqlc](https://github.com/tal-tech/go-zero/blob/master/core/stores/sqlc/cachedsql.go)和[mongoc](https://github.com/tal-tech/go-zero/blob/master/core/stores/mongoc/cachedcollection.go)等实现代码。
```go
// 用户信息结构体
type UserInfo struct {
UserId int
Name string
Age int
}
// 用户信息model对象
type UserModel struct {
db *sql.DB
rds *redis.Client
barrier syncx.SharedCalls
}
// 利用SharedCalls实现的用户信息获取方法
func (um *UserModel) GetUserInfoEffectively(userId int) (*UserInfo, error) {
// SharedCalls.Do方法提供两个参数第一个参数是资源获取期间的唯一标识
// 第二个参数是指定一个fun()(interface{},error) 方法来真正获取资源
val, err := um.barrier.Do(fmt.Sprintf("uId:{%d}:applying", userId), func() (interface{}, error) {
userInfo := &UserInfo{}
为了简化演示代码我们通过多个线程同时去获取一个id来模拟缓存的场景。如下
// 从redis中获取用户信息
userInfoStr, err := um.rds.Get(fmt.Sprintf("uId:{%d}", userId)).Result()
if err != nil && err != redis.Nil {
return nil, err
}
// 缓存不为空,解析缓存中的用户数据
if len(userInfoStr) > 0 {
if err := json.Unmarshal(([]byte)(userInfoStr),userInfo);err!=nil {
return nil, err
}
```go
func main() {
const round = 5
var wg sync.WaitGroup
barrier := syncx.NewSharedCalls()
wg.Add(round)
for i := 0; i < round; i++ {
// 多个线程同时执行
go func() {
defer wg.Done()
// 可以看到多个线程在同一个key上去请求资源获取资源的实际函数只会被调用一次
val, err := barrier.Do("once", func() (interface{}, error) {
// sleep 1秒为了让多个线程同时取once这个key上的数据
time.Sleep(time.Second)
// 生成了一个随机的id
return stringx.RandId(), nil
})
if err != nil {
fmt.Println(err)
} else {
// 缓存为空从db中获取用户数据
if err := um.db.QueryRow("select id,name,age from users where id=?", userId).Scan(&userInfo.UserId,&userInfo.Name, &userInfo.Age); err != nil {
return nil, err
}
// 将用户信息保存到缓存
userInfoBytes, err := json.Marshal(userInfo)
if err == nil {
um.rds.Set(fmt.Sprintf("uId:{%d}", userId), userInfoBytes, 5*time.Second)
fmt.Println(val)
}
}()
}
return userInfo, nil
})
wg.Wait()
}
```
// 判断获取用户过程中是否发生错误
if err != nil {
return nil, err
}
运行,打印结果为:
// 返回用户信息
return val.(*UserInfo), nil
}
```
837c577b1008a0db
837c577b1008a0db
837c577b1008a0db
837c577b1008a0db
837c577b1008a0db
```
可以看出只要是同一个key上的同时发起的请求都会共享同一个结果对获取DB数据进缓存等场景特别有用可以有效防止缓存击穿。
## 关键源码分析
- SharedCalls interface提供了Do和DoEx两种方法的抽象
@ -108,33 +91,25 @@ func (um *UserModel) GetUserInfoEffectively(userId int) (*UserInfo, error) {
```go
// 当多个请求同时使用Do方法请求资源时
func (g *sharedGroup) Do(key string, fn func() (interface{}, error)) (interface{}, error) {
// 先申请加锁
g.lock.Lock()
// 根据key获取对应的call结果,并用变量c保存
if c, ok := g.calls[key]; ok {
// 拿到call以后释放锁此处call可能还没有实际数据只是一个空的内存占位
g.lock.Unlock()
// 调用wg.Wait判断是否有其他goroutine正在申请资源如果阻塞说明有其他goroutine正在获取资源
c.wg.Wait()
// 当wg.Wait不再阻塞表示资源获取已经结束可以直接返回结果
return c.val, c.err
}
// 没有拿到结果则调用makeCall方法去获取资源注意此处仍然是锁住的可以保证只有一个goroutine可以调用makecall
c := g.makeCall(key, fn)
// 返回调用结果
return c.val, c.err
}
```
```
- sharedGroup的DoEx方法
@ -159,24 +134,18 @@ func (um *UserModel) GetUserInfoEffectively(userId int) (*UserInfo, error) {
- 该方法由Do和DoEx方法调用是真正发起资源请求的方法。
```go
//进入makeCall的一定只有一个goroutine因为要拿锁锁住的
// 进入makeCall的一定只有一个goroutine因为要拿锁锁住的
func (g *sharedGroup) makeCall(key string, fn func() (interface{}, error)) *call {
// 创建call结构用于保存本次请求的结果
c := new(call)
// wg加1用于通知其他请求资源的goroutine等待本次资源获取的结束
c.wg.Add(1)
// 将用于保存结果的call放入map中以供其他goroutine获取
g.calls[key] = c
// 释放锁这样其他请求的goroutine才能获取call的内存占位
g.lock.Unlock()
defer func() {
// delete key first, done later. can't reverse the order, because if reverse,
// another Do call might wg.Wait() without get notified with wg.Done()
g.lock.Lock()
@ -185,16 +154,13 @@ func (um *UserModel) GetUserInfoEffectively(userId int) (*UserInfo, error) {
// 调用wg.Done通知其他goroutine可以返回结果这样本批次所有请求完成结果的共享
c.wg.Done()
}()
// 调用fn方法将结果填入变量c中
c.val, c.err = fn()
return c
}
```
```
## 最后

@ -1,10 +1,12 @@
package main
import (
"flag"
"fmt"
"bookstore/api/internal/config"
"bookstore/api/internal/handler"
"bookstore/api/internal/svc"
"flag"
"github.com/tal-tech/go-zero/core/conf"
"github.com/tal-tech/go-zero/rest"
@ -23,5 +25,7 @@ func main() {
defer server.Stop()
handler.RegisterHandlers(server, ctx)
fmt.Printf("Starting server at %s:%d...\n", c.Host, c.Port)
server.Start()
}

@ -4,15 +4,16 @@
package main
import (
"flag"
"fmt"
"bookstore/rpc/add/internal/config"
"bookstore/rpc/add/internal/server"
"bookstore/rpc/add/internal/svc"
add "bookstore/rpc/add/pb"
"flag"
"fmt"
"log"
"github.com/tal-tech/go-zero/core/conf"
"github.com/tal-tech/go-zero/core/logx"
"github.com/tal-tech/go-zero/rpcx"
"google.golang.org/grpc"
)
@ -30,9 +31,7 @@ func main() {
s, err := rpcx.NewServer(c.RpcServerConf, func(grpcServer *grpc.Server) {
add.RegisterAdderServer(grpcServer, adderSrv)
})
if err != nil {
log.Fatal(err)
}
logx.Must(err)
fmt.Printf("Starting rpc server at %s...\n", c.ListenOn)
s.Start()

@ -4,15 +4,16 @@
package main
import (
"flag"
"fmt"
"bookstore/rpc/check/internal/config"
"bookstore/rpc/check/internal/server"
"bookstore/rpc/check/internal/svc"
check "bookstore/rpc/check/pb"
"flag"
"fmt"
"log"
"github.com/tal-tech/go-zero/core/conf"
"github.com/tal-tech/go-zero/core/logx"
"github.com/tal-tech/go-zero/rpcx"
"google.golang.org/grpc"
)
@ -30,9 +31,7 @@ func main() {
s, err := rpcx.NewServer(c.RpcServerConf, func(grpcServer *grpc.Server) {
check.RegisterCheckerServer(grpcServer, checkerSrv)
})
if err != nil {
log.Fatal(err)
}
logx.Must(err)
fmt.Printf("Starting rpc server at %s...\n", c.ListenOn)
s.Start()

@ -0,0 +1,34 @@
package main
import (
"fmt"
"sync"
"time"
"github.com/tal-tech/go-zero/core/stringx"
"github.com/tal-tech/go-zero/core/syncx"
)
func main() {
const round = 5
var wg sync.WaitGroup
barrier := syncx.NewSharedCalls()
wg.Add(round)
for i := 0; i < round; i++ {
go func() {
defer wg.Done()
val, err := barrier.Do("once", func() (interface{}, error) {
time.Sleep(time.Second)
return stringx.RandId(), nil
})
if err != nil {
fmt.Println(err)
} else {
fmt.Println(val)
}
}()
}
wg.Wait()
}

@ -16,11 +16,11 @@ package main
import (
"flag"
"fmt"
"log"
{{.imports}}
"github.com/tal-tech/go-zero/core/conf"
"github.com/tal-tech/go-zero/core/logx"
"github.com/tal-tech/go-zero/rpcx"
"google.golang.org/grpc"
)
@ -38,9 +38,7 @@ func main() {
s, err := rpcx.NewServer(c.RpcServerConf, func(grpcServer *grpc.Server) {
{{.registers}}
})
if err != nil {
log.Fatal(err)
}
logx.Must(err)
fmt.Printf("Starting rpc server at %s...\n", c.ListenOn)
s.Start()

Loading…
Cancel
Save