• 回答数

    5

  • 浏览数

    163

一谷鱼vegfish
首页 > 期刊论文 > 利用python爬虫论文查重

5个回答 默认排序
  • 默认排序
  • 按时间排序

mercury211

已采纳

别折腾了,不打算往爬虫方向发展的话没必要自己学,爬虫所需要的技术非常广泛、且对深度都有一定要求,不存在“快速学会”的情况。所有那些吹快速学会爬虫的培训班都是扯淡,那些课程学完后的水平连傻瓜式爬虫工具都不如,有啥意义?再说了,你们写论文、做研究又不会需要什么很大量、很高频、很实时的数据,那些傻瓜式爬虫工具完全足够了,点几下就能出数据。

110 评论

Elephantwoman

方法/步骤

203 评论

双子座的小蛇

所谓网页抓取,就是把URL地址中指定的网络资源从网络流中读取出来,保存到本地。 类似于使用程序模拟IE浏览器的功能,把URL作为HTTP请求的内容发送到服务器端, 然后读取服务器端的响应资源。

在Python中,我们使用urllib2这个组件来抓取网页。urllib2是Python的一个获取URLs(Uniform Resource Locators)的组件。

它以urlopen函数的形式提供了一个非常简单的接口。

最简单的urllib2的应用代码只需要四行。

我们新建一个文件来感受一下urllib2的作用:

import urllib2response = ('')html = ()print html

按下F5可以看到运行的结果:

我们可以打开百度主页,右击,选择查看源代码(火狐OR谷歌浏览器均可),会发现也是完全一样的内容。

也就是说,上面这四行代码将我们访问百度时浏览器收到的代码们全部打印了出来。

这就是一个最简单的urllib2的例子。

除了"http:",URL同样可以使用"ftp:","file:"等等来替代。

HTTP是基于请求和应答机制的:

客户端提出请求,服务端提供应答。

urllib2用一个Request对象来映射你提出的HTTP请求。

在它最简单的使用形式中你将用你要请求的地址创建一个Request对象,

通过调用urlopen并传入Request对象,将返回一个相关请求response对象,

这个应答对象如同一个文件对象,所以你可以在Response中调用.read()。

我们新建一个文件来感受一下:

import urllib2  req = ('')  response = (req)  the_page = ()  print the_page

可以看到输出的内容和test01是一样的。

urllib2使用相同的接口处理所有的URL头。例如你可以像下面那样创建一个ftp请求。

req = ('')

在HTTP请求时,允许你做额外的两件事。

1.发送data表单数据

这个内容相信做过Web端的都不会陌生,

有时候你希望发送一些数据到URL(通常URL与CGI[通用网关接口]脚本,或其他WEB应用程序挂接)。

在HTTP中,这个经常使用熟知的POST请求发送。

这个通常在你提交一个HTML表单时由你的浏览器来做。

并不是所有的POSTs都来源于表单,你能够使用POST提交任意的数据到你自己的程序。

一般的HTML表单,data需要编码成标准形式。然后做为data参数传到Request对象。

编码工作使用urllib的函数而非urllib2。

我们新建一个文件来感受一下:

import urllib  import urllib2  url = ''  values = {'name' : 'WHY',            'location' : 'SDU',            'language' : 'Python' }  data = (values) # 编码工作req = (url, data)  # 发送请求同时传data表单response = (req)  #接受反馈的信息the_page = ()  #读取反馈的内容

如果没有传送data参数,urllib2使用GET方式的请求。

GET和POST请求的不同之处是POST请求通常有"副作用",

它们会由于某种途径改变系统状态(例如提交成堆垃圾到你的门口)。

Data同样可以通过在Get请求的URL本身上面编码来传送。

import urllib2  import urllibdata = {}data['name'] = 'WHY'  data['location'] = 'SDU'  data['language'] = 'Python'url_values = (data)  print url_valuesname=Somebody+Here&language=Python&location=Northampton  url = ''  full_url = url + '?' + url_valuesdata = (full_url)

这样就实现了Data数据的Get传送。

2.设置Headers到http请求

有一些站点不喜欢被程序(非人为访问)访问,或者发送不同版本的内容到不同的浏览器。

默认的urllib2把自己作为“Python-urllib/”(x和y是Python主版本和次版本号,例如Python-urllib/),这个身份可能会让站点迷惑,或者干脆不工作。

浏览器确认自己身份是通过User-Agent头,当你创建了一个请求对象,你可以给他一个包含头数据的字典。

下面的例子发送跟上面一样的内容,但把自身模拟成Internet Explorer。

(多谢大家的提醒,现在这个Demo已经不可用了,不过原理还是那样的)。

import urllib  import urllib2  url = ''user_agent = 'Mozilla/ (compatible; MSIE ; Windows NT)'  values = {'name' : 'WHY',            'location' : 'SDU',            'language' : 'Python' }  headers = { 'User-Agent' : user_agent }  data = (values)  req = (url, data, headers)  response = (req)  the_page = ()

以上就是python利用urllib2通过指定的URL抓取网页内容的全部内容,非常简单吧,希望对大家能有所帮助。

333 评论

Bohollsland

说起来比较复杂 就是去读取网页的源代码,然后抓取源代码的内容

332 评论

荤淡美食家

你可以使用那些已经存在的爬虫,搜数,前期是免费的

208 评论

相关问答

  • 利用python爬虫论文查重

    别折腾了,不打算往爬虫方向发展的话没必要自己学,爬虫所需要的技术非常广泛、且对深度都有一定要求,不存在“快速学会”的情况。所有那些吹快速学会爬虫的培训班都是扯淡

    一谷鱼vegfish 5人参与回答 2023-12-10
  • 怎么使用爬虫爬取知网论文

    Python自动化可以实现,有偿服务

    mingmingsherry 3人参与回答 2023-12-10
  • python爬取知网论文教程

    别折腾了,不打算往爬虫方向发展的话没必要自己学,爬虫所需要的技术非常广泛、且对深度都有一定要求,不存在“快速学会”的情况。所有那些吹快速学会爬虫的培训班都是扯淡

    囩囩囡囡 2人参与回答 2023-12-05
  • 网络爬虫论文模板

    学术堂整理了一篇3000字的计算机论文范文,供大家参考: 范文题目:关于新工程教育计算机专业离散数学实验教学研究 摘要: 立足新工科对计算机类专业应用实践能力培

    jonathan7704 5人参与回答 2023-12-12
  • 主题爬虫论文

    是可以的。如果你使用爬虫来收集数据,你需要在你的论文中提供完整的代码,以便有兴趣的读者能够测试爬取的正确性。你也要在你的论文中提供丰富的注释,以便读者可以理解你

    周闹闹now 4人参与回答 2023-12-06