易启发资源网一个让你成为创客的知识源泉,一个让你梦想成真的家园。

最新文章 python爬取每日一句

  • 时间:2019-12-10
  • 作者:打雨伞的兔子
  • 分类: Python
  • 浏览:0
  • 评论:0
  • import requests import re from bs4 import BeautifulSoup url='http://wufazhuce.com/one/'#每一期的链接共同的部分 words=['0']*1800#定义一个长度为1800的列表,用来保存每一句话,并初始化为全‘0’ for i in range(0,100): s=str(i)#数字类型转为字符串类型 print(i) currenturl=url+s#当前期的链接 try: res=requests.get(currenturl) ...

    阅读全文>>

    批量自动注册OneDrive 5T 账号python+selenium实现

  • 时间:2019-12-9
  • 作者:陈家二公子
  • 分类: Python
  • 浏览:2
  • 评论:0
  • 程序主要就两块儿: sign_up()功能: 1. 设置临时邮箱 2. 填写注册信息 3. 等待验证 4. 填写验证码 5. 完成注册 main()功能: 1. 注册名称设置 2. selenium参数设置 3. 调用sign_up() 4. 注册后的账号密码写入文件 前段时间学习python,本来是为了数据分析的,结果学偏了学到爬虫这块儿了...0_o ,碰巧前些日子需要用到OneDrive,在吾爱找到了免费注册5t的方法,发现利用临时邮箱可以无限注册0_o .. o_0 ,而且某宝上有很多卖OneDrive的,就想着应该...

    阅读全文>>

    python下载抖音无水印视频源码

  • 时间:2019-12-2
  • 作者:清萍の剑客
  • 分类: Python
  • 浏览:9
  • 评论:0
  • 程序介绍:用Python代码实现下载抖音无水印视频 使用方法:v.urlencode("")修改这个代码里的链接地址,地址为抖音视频分享的链接 注意:应为程序使用了ffmpeg,所以需要下载这个,才能使用 ffmpeg下载安装说明:https://blog.csdn.net/a18852867035/article/details/82053611 爬虫的的代码复制的别人的,具体地址如下:https://www.52pojie.cn/thread-1056173-1-1.html 实现逻辑: 1.用爬虫得到源视频地址,用cv2模块保存为视频文件 2.下载mp3文件 ...

    阅读全文>>

    Python爬取看雪学院1W+资料库

  • 时间:2019-11-30
  • 作者:陈家二公子
  • 分类: Python
  • 浏览:7
  • 评论:0
  • 先上图:       因文章太多,不能转成一个html,要然会卡死,SO,只能按分类转PDF了     代码: import re,json,os,sys,time,requests from lxml import etree from multiprocessing.dummy import Pool as ThreadPool from urllib.parse import quote,unquote def filterFName(FName): ...

    阅读全文>>

    python结巴分词SEO的应用详解

  • 时间:2019-11-29
  • 作者:打雨伞的兔子
  • 分类: Python
  • 浏览:11
  • 评论:0
  • 结巴分词在SEO中可以应用于分析/提取文章关键词、关键词归类、标题重写、文章伪原创等等方面,用处非常多。      具体结巴分词项目:https://github.com/fxsjy/jieba     安装方法:    以mac系统为例(因为自己用mac系统):    在终端输入: pip3 install jieba -i http://pypi.douban.com/simple --trusted-host pypi.douban.com ...

    阅读全文>>

    python爬取bilibili编程区的视频信息

  • 时间:2019-11-27
  • 作者:打雨伞的兔子
  • 分类: Python
  • 浏览:15
  • 评论:0
  • 刚开始以为bilibili对爬虫很友好,没有反爬机制,结过踩了两个坑 写入时长的时候故意重新开了一行 方便自己看 数据太多截图没显示完 具体可以看代码 上面有我写入的数据都是什么 (抓取的位置和信息还有踩坑的图在下面)) 第一个是:一开始抓取的网页是假的,没发现 结果返回的数据不对,多点两页就看出来了 第二个是:它返回的数据是字符串 不是json格式的 输出一下就看出来了 代码如下: import requests import json import time # 网址 url = "https://api.bi...

    阅读全文>>

    [Python] 新手学习sklern测试预测双色球彩票的蓝球号码

  • 时间:2019-11-27
  • 作者:打雨伞的兔子
  • 分类: Python
  • 浏览:14
  • 评论:0
  • 最近学习sklearn机器学习,简单看了一遍书后,想自己找点数据练习下,仔细一想,自己周围好像就双色球还有点数据,红球数据太多,没头绪,所以想试试蓝球 有没有规律可以学习。 先从网上下载了所以双色球数据,存到ssq.txt。 然后照着书上的监督学习,挨个试验一遍,最后发现没有一个能用的,看来随机问题不是那么好蒙的,发财还得靠运气! #引入常规包 # -*- coding: utf-8 -*- import matplotlib.pyplot as plt from sklearn.model_selection import train_test_split import n...

    阅读全文>>

    python爬虫,爬取58同城数据

  • 时间:2019-11-24
  • 作者:aimi123
  • 分类: Python
  • 浏览:16
  • 评论:0
  • 为了爬虫不影响别人的服务器  我每爬取一页等待了3秒 这是必要的 —————————————————————— 没什么反爬机制 比较简单 爬取的是58同城的小时工的数据,因为小时工的数据比较多 我就爬取了70页,具体小时工的数据多少页不知道 虽然上面只显示了70页,但是你可以通过在地址上添加页数来超过70页 具体的看下面的图片 数据重不重复我不知道,因为每次刷新数据都不同 一定要在headers里面添加上referer 不然爬几页过后,后面的都是空的 不知道是反爬机制 还是正则表达式的问题 具体的没实验 因为我最开始用的是正则来匹配的数据 后面发现...

    阅读全文>>

    [Python] 分享百度快排发包python源码核心文件

  • 时间:2019-11-24
  • 作者:aimi123
  • 分类: Python
  • 浏览:13
  • 评论:0
  •  最近都在研究怎么做快排,分享下成果,可以一起学习交流!   附上代码: # -*- coding: utf-8 -*-from selenium import webdriver import time import requests import random import os from selenium.webdriver.common.desired_capabilities import DesiredCapabilities import traceback import urllib.re...

    阅读全文>>

    Python如何破解爱X艺腾讯视频等主流视频网站的VIP视频

  • 时间:2019-11-24
  • 作者:aimi123
  • 分类: Python
  • 浏览:13
  • 评论:0
  • from urllib import parse # url编译包 url = "https://www.iqiyi.com/v_19rrfzbn2c.html" # 反斜杠 字符集 # a=parse # Tk 消息盒子包 当程序错误 弹窗提示 import tkinter.messagebox as msg # 做桌面编程 import tkinter as tk # 控制浏览器的包...

    阅读全文>>

    返回顶部| 首页| 手气不错| 捐赠支持| 留言板| 自定义链接| 自定义链接| sitemap| 手机版本|后花园

    Copyright © 2017-2018 易启发资源网   粤ICP备18033131号-4