小猿圈Python入门之批量获取html内body内容的方法
对于人工智能你了解有多少?你知道Python的使用吗?这个对于大部分初学者来说都是很难的,小猿圈Python讲师会每天为大家选择分享一个知识点,希望对你学习Python有所帮助,今天分享的就是批量获取html内body内容的方法。https://upload-images.jianshu.io/upload_images/15397392-ba0a733a2bc1e1f1.png?imageMogr2/auto-orient/strip%7CimageView2/2/w/1240现在有一批完整的关于介绍城市美食、景点等的html页面,需要将里面body的内容提取出来。方法:利用python插件beautifulSoup获取htmlbody标签的内容,并批量处理。# -*- coding:utf8 -*-from bs4 import BeautifulSoupimport osimport os.pathimport sysreload(sys)sys.setdefaultencoding('utf8')def printPath(level,path):global allFileNum#所有文件夹,第一个字段是此目录的级别dirList = []#所有文件fileList = []#返回一个列表,其中包含在目录条目的名称files = os.listdir(path)#先添加目录级别dirList.append(str(level))for f in files:if(os.path.isdir(path+'/'+f)):#排除隐藏文件夹,因为隐藏文件夹过多if(f == '.'):passelse:#添加隐藏文件夹dirList.append(f)if(os.path.isfile(path+'/'+f)):#添加文件fileList.append(f)return (dirList,fileList)#将文件html文件抓取并写入指定txt文件def getAndInsert(rootdir,savepath,path):global file_numf_list = os.listdir(rootdir+'/'+path)for i in f_list:temp = os.path.splitext(i)for num in range(1,11):if(i==str(num)+'.html'):#print rootdir+'/'+path+'/'+iobjFile = open(rootdir+'/'+path+'/'+i)soup = BeautifulSoup(objFile)arr = []for child in soup.body:arr.append(child)if os.path.exists(savepath+'/'+path):passelse:os.makedirs(savepath+'/'+path)f = open(savepath+'/'+path+'/'+temp+'.txt','w')for k,v in enumerate(arr):if k!=1:f.write(str(v))f.close()print path+'/'+i+' is running'file_num = file_num + 1rootdir = '../zips2'dirList,fileList = printPath(1,rootdir)savepath = "../testC"file_num = 0for fn in dirList:if(fn == '1'):passelse:getAndInsert(rootdir,savepath,fn)print fn+' is ending'print '一共完成'+str(file_num)+'个城市的提取'最后想要了解更多关于Python和人工智能方面内容的小伙伴,请关注小猿圈官网,IT职业在线学习教育平台为您提供Python开发环境搭建视频等等python自学交流:242719133,希望在你自学python中帮助你指导方向,少走弯路。
页:
[1]