需求
最近接到一个任务,要把一批文件中的十几万条json格式数据写入到oracle数据库中,oracle是企业级别的数据库向来以高性能著称,所以尽可能地利用这一特性。当时第一时间想到的就是用多线程并发读文件并操作数据库,而golang是为并发而生的,用golang进行并发编程非常方便,因此这里选用golang并发读取文件并用gorm操作数据库。然而gorm官方并不支持oraclc,所以要借助第三方驱动,之前写了篇文章来记录gorm操作oracle的踩坑,详见使用gorm操作oracle数据库踩坑
项目结构
data文件夹中包含数十个.out结尾的数据文件,model.go声明数据类型,main.go中编写并发逻辑和数据库操作代码
|——db_test | |——data | |——xxx.out | |——yyy.out | |——model | |——model.go | |——main.go | |——go.mod
获取data目录下的文件
golang自带的os库就可以对文件、目录进行各种丰富的操作,openfile函数第一个参数是目录的路径,第二个参数表示只读,第三个参数os.modedir表示以文件夹模式打开。readdir传入负数表示读取目录下所有文件信息,传入n表示读取前n个文件信息。最后将所有文件名保存到字符串数组并返回。
func loadfile(path string) []string { // 打开指定文件夹 f, err := os.openfile(path, os.o_rdonly, os.modedir) if err != nil { log.fatalln(err.error()) os.exit(0) } defer f.close() // 读取目录下所有文件 fileinfo, _ := f.readdir(-1) files := make([]string, 0) for _, info := range fileinfo { files = append(files, info.name()) } return files }
按行读取文本数据
这里使用bufio.scanner来一行一行读取json格式的数据,bufio.reader也能实现按行读取,但bufio.scanner是go1.1后开发的模块操作起来更简单一点。
func readrecord(filename string) { log.println(filename) f, err := os.open(filename) if err != nil { log.println(filename + " error") return } defer f.close() scanner := bufio.newscanner(f) for scanner.scan() { line := scanner.text() // line就是每行文本 // 对line进行处理 } }
数据类型定义
还是假设数据库中有一个shops表,结构体方法tablename指定该类型对应的数据表,编写如下model.go文件
package model type shopinfo struct { shopid string `gorm:"column:shopid;not null"` shopname string `gorm:"column:shopname;not null"` // 省略剩余的字段 } func (s *shopinfo) tablename() string { return "shops" }
并发读取文件
基本逻辑是主函数读取文件夹下面的所有文件,然后用循环开启goroutine并传入文件名和数据库指针,goroutine中按行读取每个文件并将其json数据转换为结构体,在调用gorm写入oracle数据库。这里用golang的等待组来同步主函数与goroutine。
var wg sync.waitgroup func main() { // 打开oracle连接 db, err := gorm.open(oracle.open("database/password@127.0.0.1:1521/xe"), &gorm.config{ logger: logger.new(log.new(os.stdout, "\r\n", log.lstdflags), logger.config{ slowthreshold: 1 * time.millisecond, loglevel: logger.error, colorful: true, }), }) if err != nil { log.fatalln(err) } if e := db.automigrate(&model.shopinfo{}); e != nil { log.fatalln(e.error()) } path := "./data/" files := loadfile(path) // 加载所有文件名 // 循环创建goroutine for i, v := range files { wg.add(1) // 将数据库指针和文件名传给goroutine处理 go writerecord(db, path+v) } wg.wait() // 等待所有goroutine执行完成 log.println("over") }
将数据写入数据库
由于这些文件中可能有重复的数据,所以这里调用了gorm的clauses设置,当有主键重复的数据什么都不做,有些情况下主键相同但是更新了某些字段,这时可以用clauses设置主键重复时进行更新操作。虽然主键重复时什么都不做,但是db的执行结果也会包含"unique constraint"错误,所以在错误处理时要排除主键冲突的情况,把其他错误(如字段太长或类型不匹配)记录下来。
func writerecord(db *gorm.db, filename string) { defer wg.done() // 不要忘记等待组-1 f, err := os.open(filename) if err != nil { log.println(filename + " error") return } defer f.close() scanner := bufio.newscanner(f) iter := 0 // 记录出错的行数 for scanner.scan() { var shop model.shopinfo iter++ // 调用json.unmarshal()将文本转换为结构体 if err = json.unmarshal([]byte(scanner.text()), &shop); err != nil { log.println("转换错误--->" + scanner.text()) return } // 用clause设置当发生id冲突时什么都不做 res := db.clauses(clause.onconflict{donothing: true}).create(&shop) // 虽然id相同时程序不会停止,但是还是有错误返回 // 所以这里排除id冲突错误,将其他错误(字段冲突)打印出来 if res.error != nil && !strings.contains(res.error.error(), "unique constraint") { log.println("插入出错--->" + shop.shopid + " 在" + filename + "第" + strconv.itoa(iter) + "行") return } } }
完整main.go代码
将上面每一步整合后得到完整的主函数代码如下:
package main import ( "bufio" "db_test/model" "encoding/json" "log" "os" "strconv" "strings" "sync" "time" "github.com/cengsin/oracle" "gorm.io/gorm" "gorm.io/gorm/clause" "gorm.io/gorm/logger" ) var wg sync.waitgroup func main() { log.println("initial database connect……") db, err := gorm.open(oracle.open("database/password@127.0.0.1:1521/xe"), &gorm.config{ logger: logger.new(log.new(os.stdout, "\r\n", log.lstdflags), logger.config{ slowthreshold: 1 * time.millisecond, loglevel: logger.error, colorful: true, }), }) if err != nil { log.fatalln(err) } if e := db.automigrate(&model.shopinfo{}); e != nil { log.fatalln(e.error()) } path := "../out1/" files := loadfile(path) time.sleep(2 * time.second) for i, v := range files { wg.add(1) go writerecord(db, path+v) } wg.wait() log.println("over") } func loadfile(path string) []string { // 打开指定文件夹 f, err := os.openfile(path, os.o_rdonly, os.modedir) if err != nil { log.fatalln(err.error()) os.exit(0) } defer f.close() // 读取目录下所有文件 fileinfo, _ := f.readdir(-1) files := make([]string, 0) for _, info := range fileinfo { files = append(files, info.name()) } return files } func writerecord(db *gorm.db, filename string) { defer wg.done() f, err := os.open(filename) if err != nil { log.println(filename + " error") return } defer f.close() scanner := bufio.newscanner(f) iter := 0 // 记录出错的行数 for scanner.scan() { var shop model.shopinfo iter++ // 调用json.unmarshal()将文本转换为结构体 if err = json.unmarshal([]byte(scanner.text()), &shop); err != nil { log.println("转换错误--->" + scanner.text()) return } // 用clause设置当发生id冲突时什么都不做 res := db.clauses(clause.onconflict{donothing: true}).create(&shop) // 虽然id相同时程序不会停止,但是还是有错误返回 // 所以这里排除id冲突错误,将其他错误(字段冲突)打印出来 if res.error != nil && !strings.contains(res.error.error(), "unique constraint") { log.println("插入出错--->" + shop.shopid + " 在" + filename + "第" + strconv.itoa(iter) + "行") return } } }
测试运行
go run ./main.go运行过程非常快,十几万条数据几分钟就写完了,并且cpu占用率100%,证明非常有效的利用了并发优势。若是文件数量太多(上千个)的话会创建非常多goroutine,可能消耗非常多系统资源,可以在循环创建goroutine时进行限制,只创建30或50个,一个goroutine结束后再给它传入一个新的文件名。
到此这篇关于golang并发读取文件数据并写入数据库的项目实践的文章就介绍到这了,更多相关golang并发读取并写入内容请搜索以前的文章或继续浏览下面的相关文章希望大家以后多多支持!