Python批量操作文件写入数据库及从数据库取数据

2021年3月4日 284点热度 0人点赞 0条评论
来源:http://suo.im/5H9wiH


博主工作长期需使用到数据库查询数据,因而接触到了数据库的一些皮毛知识。但是数据库和办公网不能互通,远端访问也没法实现,所以长期以来查询数据都相当麻烦。近期博主在自己的工作电脑上搭建了一个的MySQL数据库,并尝试导入一些数据进去,顺便自己查询,其中遇到了各种各样的问题,才深刻领悟到后端操作的艰难,写篇博客记录一下其中的艰难过程。
  • 编译环境:Python3.7

  • 编译器:pycharm

  • 数据库可视化软件:Navicat premium 15

  • 数据库:MySQL 8.0.20

注:以下内容,仅供用于学习交流,而且博主也对相关内容进行的打码处理,文件名和数据库名都是用的XXX来表示的。

数据库搭建

博主的数据库是用的MySQL,用的是CMD命令行方式安装和配置的,网上有很多教程,但是良莠不齐,有空了我专门写一篇博客记录安装过程,这边博客就不说了。不过在安装时,一定要牢记系统给你默认设置的连接密码,如果没记住的话,会让你崩溃,网上教程一堆,能实际解决问题的没两个,这个密码是关键,切记、切记。

数据库可视化软件

博主用的是Navicat premium 15,界面如下:
图片
为什么需要这个软件呢,这个软件可以让你方便的连接你的数据库,也可以在里面写一些查询语句,甚至可以将数据导入到数据库,而且还支持批量导入,总之,非常方便,可以理解为数据库的前端操作软件。但实际使用过程却没有那么友好,比如我导入数据到我的数据库时,经常出现下面的问题:
图片
finished with error
也不告诉你那里出了错,反正就是数据不全,大概只导入了1/4的数据。当然也不是所有的数据导入都会出现这个问题,但是确实头疼,博主网上搜了一堆教程没一个能解释明白的,所以才有了后面用Python导入数据库的尝试。不过用Navicat写查询语句确实方便,你的数据库需要这么个数据库可视化软件,不然你操作数据库,就永远像个黑客一样在CMD里写命令行来操作了。

批量合并数据文件

博主这边有很多txt文件,但都是同一批字段的数据,至于为什么会这样,博主也懒得解释。反正现在的工作是,把这些txt文件合并到一个文件里去,这样导入数据库也方便点不是吗?
当然你也可以自己在excel里面一个个的复制粘贴,但是感觉一是工作量太大,十来个文件还好,几百个文件你要这么操作,能让人抓狂,而且逼格也太低了,现在流行自动化办公。
直接上代码:
# -*- coding: utf-8 -*-"""Created on Tue Jul 14 15:25:44 2020
@author: HP"""
#合并一个文件夹下的多个txt文件#coding=utf-8import osimport pandas as pd#获取目标文件夹的路径filedir = r'C:\xxx\xxx' #获取当前文件夹中的文件名称列表filenames=os.listdir(filedir) i=0data = pd.read_csv(r'C:\xxx\xxx\xxx.txt',sep = '\t')col = list(data)data = pd.DataFrame(columns=col)
#先遍历文件名for filename in filenames: i+=1 print(i) if i>0: filepath = filedir+'\\'+filename print(filepath) #遍历单个文件,读取行数 # datai = pd.read_csv(filepath, sep='\t', dtype=str) datai = pd.read_csv(filepath, sep='\t', converters={'item': str}) data = data.append(datai) ''' for line in open(filepath, 'r', encoding='utf-8-sig', errors='ignore'): # print(str(line)) f.writelines(line) # f.write('\n') '''#关闭文件# f.close()
data.to_excel('XXX.xlsx', index=False)
来解释一下代码

filedir = r’C:\xxx\xxx’ 我把所有的文件放在这个文件夹里,注意是一个绝对的路径
filenames=os.listdir(filedir) 获取这个文件夹里面所有的文件列表
data = pd.read_csv(r'D:\xxx\xxx.txt',sep = '\t')col = list(data)data = pd.DataFrame(columns=col)
这里几行代码呢,目的是创建一个空的dataframe,这个空的dataframe的列就是上面那个文件夹里面某个文件的列名
后面就是写循环,往列表里面添加数据,然后将列表转换为excel文件了。
''' for line in open(filepath, 'r', encoding='utf-8-sig', errors='ignore'): # print(str(line)) f.writelines(line) # f.write('\n')        '''
博主注释起来的这块代码,是写入txt的方式,看需求,当然,这里f没定义,可以在循环外面定义一下f,比如:
# f=open('result.txt','w')

将数据写入数据库

直接上代码了再解释吧
# -*- coding: utf-8 -*-"""Created on Tue Jul 14 17:34:23 2020
@author: HP"""
"""功能:将Excel数据导入到MySQL数据库"""import xlrdimport MySQLdbimport pandas as pd
d = pd.read_csv('xxx.txt',sep = '\t')col = list(d)cols = ','.join(col)
# Open the workbook and define the worksheetbook = xlrd.open_workbook("XXX.xlsx") # excel文件名# book = xlrd.open_workbook("1.xlsx")sheet = book.sheet_by_index(0) # excel文件中的sheet名
# 建立一个MySQL连接database = MySQLdb.connect(host="xxxxxxx", user="xxxx", passwd="xxxxxx", db="xxxxx", charset="utf8")
# 获得游标对象, 用于逐行遍历数据库数据cursor = database.cursor()
# 创建插入SQL语句# query = """INSERT INTO acd_file (%s) VALUES (%s)""" %(cols, ss)
# 创建一个for循环迭代读取xls文件每行数据的, 从第二行开始是要跳过标题
data_list = []for r in range(1, sheet.nrows): row_list = [] for t in range(len(col)): value_rt = sheet.cell(r,t).value type_rt = sheet.cell(r,t).ctype if type_rt == 2: value_rt = str(int(value_rt)) row_list.append(value_rt) data_list.append(row_list) # values = ','.join(data_list) # query = """INSERT INTO acd_file (%s) VALUES (%s)""" %(cols, s) # 执行sql语句 # cursor.execute(query, values)
val = ''for i in range(0, len(col)): val = val + '%s,' result =cursor.executemany("insert into xxx (%s) values(" %(cols) + val[:-1] + ")", data_list)print(result)

# 关闭游标cursor.close()
# 提交database.commit()
# 关闭数据库连接database.close()
# 打印结果print("")print("Done! ")print("")columns = str(sheet.ncols)rows = str(sheet.nrows)print("我刚导入了 ", columns, " 列 and ", rows, " 行数据到MySQL!")
真的挺复杂,也不知道博主能不能讲明白,我挑一些自己认为比较晦涩的代码来解释吧

基础数据导入

d = pd.read_csv('xxx.txt',sep = '\t')col = list(d)cols = ','.join(col)
这里主要是把文件的列名变成一串字符串,join函数可以将列表转化为字符串,分割符号是’,'这个逗号
# Open the workbook and define the worksheetbook = xlrd.open_workbook("XXX.xlsx") # excel文件名# book = xlrd.open_workbook("1.xlsx")sheet = book.sheet_by_index(0) # excel文件中的sheet名
把上面合并的那个excel文件读进来,并且获取这个excel的sheet名,从上面批量合并数据文件这一步来看,博主其实只有一个sheet。

链接数据库

database = MySQLdb.connect(host="xxxxxxx", user="xxxx", passwd="xxxxxx", db="xxxxx", charset="utf8")
这行代码非常关键,关系到你能否把数据写到数据库里去,connect函数就是用来链接数据库的,里面的参数我来解释一下:
  • host:主机名,如果是访问本机数据库的话,一般是localhost,如果是访问网络数据库的话,就要写服务器的网络地址了

  • user:用户名,你数据库的用户名,这里就与自己当初搭建的数据库密切相关了

  • passwd:这个数据库用户名对应的密码,就是我前面提到的那个密码,很重要、很重要、很重要

  • db:你要讲数据写入的数据库名称

  • charset:这玩意儿很坑,字符格式,主要看你的数据库是什么样的,我的是utf-8,所以这里我写上了,但很多教程并没有这个,所以经常报错,没写上之前,我也是各种报错

数据处理

data_list = []for r in range(1, sheet.nrows): row_list = [] for t in range(len(col)): value_rt = sheet.cell(r,t).value type_rt = sheet.cell(r,t).ctype if type_rt == 2: value_rt = str(int(value_rt)) row_list.append(value_rt)    data_list.append(row_list)
这段代码的目的是将表中所有的数据全部取出来,并写入到data_list这个列表中
type_rt = sheet.cell(r,t).ctype用于获取每个字符的类型
ctype : 0 empty,1 string, 2 number, 3 date, 4 boolean, 5 error
我将所有数字型的数据全部转换为字符串,便于完整的写入数据,至于到哪里去把字符串修改回来,这个可以到Navicat里面去设置。当然,这不是最佳的数据处理方式,只是比较适合博主的数据而已

写入数据库

val = ''for i in range(0, len(col)): val = val + '%s,' result =cursor.executemany("insert into xxx (%s) values("  %(cols) + val[:-1] + ")", data_list)
变量val用来生成一串’%s’这个玩意儿,val[:-1]用切片切掉最后一个逗号,其实这里有更简单的写法,像前面一样用join函数
s =['%s']*len(col)ss = ','.join(s)
这里的ss和val[:-1]是等价的。
executemany是批量写入函数,“insert into xxx (%s) values(” %(cols) + val[:-1] + ")"中的xxx是数据表。还有另外一种写法,不用批量导入,而是用execute函数,每读一行,就写一行,写在循环里面,但是当时老是报错,我就没继续下去了。
后面就是常规的数据库操作了
当然,整个过程不断的报错,比如报错说我的字符串长度太长了,等等,要在数据库里面修改一些参数,可能每个人遇到的问题不一样,遇到了就去网上搜索教程,基本都能解决。
至此完成了数据的写入,接下来看看怎么在Python里查询数据

Python操作数据库查询数据

还是先上代码
# -*- coding: utf-8 -*-"""Created on Thu Jul 16 09:33:42 2020
@author: HP"""
import MySQLdbimport pandas as pd
conn = MySQLdb.connect( host="xxxx", user="xxxx", passwd="xxxxx", db="xxxxx", charset="utf8")
cur = conn.cursor()query = """ select x1, x2, x3, x4 from table1 where x1 >= 1 and x1 < 100 """ cur.execute(query)result = cur.fetchall()df_result = pd.DataFrame(list(result), columns=['x1','x2','x3','x4'])
第一步,链接数据库并登陆
第二步,写查询语句,select from where基本查询语法
第三步,执行查询语句
顺利出结果
相对来说,要简单的多

写在后面

从博主决定搭建数据库到最后打通数据库,总体来说,感觉很费劲,也走了很多弯路,给我的感觉就是后端的东西要比前端复杂一点,当然,博主水平有限,也就目前的认知水平这样,前端的东西其实也很复杂,只是我个人接触的相对多一点而已。
不过还是很开心的,毕竟又get了个新技能。
PS:如果觉得我的分享不错,欢迎大家随手点赞、在看。
END

PS:欢迎在留言区留下你的观点,一起讨论提高。如果今天的文章让你有新的启发,欢迎转发分享给更多人。

Python读者交流群已成立

公众号运营至今,离不开小伙伴们的支持。为了给小伙伴们提供一个互相交流的平台,特地开通了官方交流群。扫描下方二维码备注 进群 或者关注公众号 Python人工智能编程 后获取进群通道。

图片

添加好友,备注【进群

—————END—————

推荐阅读:



图片

最近面试BAT,整理一份Python资料《Python学习手册》,覆盖了Python知识点、人工智能、深度学习、机器学习等方面。

获取方式:关注公众号并回复 Python 领取,更多内容陆续奉上。

明天见(。・ω・。)ノ♡

20850Python批量操作文件写入数据库及从数据库取数据

root

这个人很懒,什么都没留下

文章评论