• 回答数

    2

  • 浏览数

    219

听雨蘑菇
首页 > 期刊论文 > 利用爬虫写毕业论文

2个回答 默认排序
  • 默认排序
  • 按时间排序

龙龙fighting

已采纳

论文——题目科学论文都有题目,不能“无题”。论文题目一般20字左右。题目大小应与内容符合,尽量不设副题,不用第1报、第2报之类。论文题目都用直叙口气,不用惊叹号或问号,也不能将科学论文题目写成广告语或新闻报道用语。署名(二)论文——署名科学论文应该署真名和真实的工作单位。主要体现责任、成果归属并便于后人追踪研究。严格意义上的论文作者是指对选题、论证、查阅文献、方案设计、建立方法、实验操作、整理资料、归纳总结、撰写成文等全过程负责的人,应该是能解答论文的有关问题者。往往把参加工作的人全部列上,那就应该以贡献大小依次排列。论文署名应征得本人同意。学术指导人根据实际情况既可以列为论文作者,也可以一般致谢。行政领导人一般不署名。

340 评论

燃烧吧猪五花

做爬虫,特别是python写说容易挺容易,说难也挺难的,举个栗子 简单的:将上面的所有代码爬下来写个for循环,调用urllib2的几个函数就成了,基本10行到20行以内的代码难度0情景:1.网站服务器很卡,有些页面打不开,urlopen直接就无限卡死在了某些页面上(2.6以后urlopen有了timeout)2.爬下来的网站出现乱码,你得分析网页的编码3.网页用了gzip压缩,你是要在header里面约定好默认不压缩还是页面下载完毕后自己解压4.你的爬虫太快了,被服务器要求停下来喝口茶5.服务器不喜欢被爬虫爬,会对对header头部浏览器信息进行分析,如何伪造6.爬虫整体的设计,用bfs爬还是dfs爬7.如何用有效的数据结构储存url使得爬过的页面不被重复爬到8.比如1024之类的网站(逃,你得登录后才能爬到它的内容,如何获取cookies以上问题都是写爬虫很常见的,由于python强大的库,略微加了一些代码而已难度1情景:1.还是cookies问题,网站肯定会有一个地方是log out,爬虫爬的过程中怎样避免爬到各种Log out导致session失效2.如果有验证码才能爬到的地方,如何绕开或者识别验证码3.嫌速度太慢,开50个线程一起爬网站数据难度2情景:1.对于复杂的页面,如何有效的提取它的链接,需要对正则表达式非常熟练2.有些标签是用Js动态生成的,js本身可以是加密的,甚至奇葩一点是jsfuck,如何爬到这些难度3总之爬虫最重要的还是模拟浏览器的行为,具体程序有多复杂,由你想实现的功能和被爬的网站本身所决定爬虫写得不多,暂时能想到的就这么多,欢迎补充

205 评论

相关问答

  • 可以利用爬虫进行论文查重吗

    Paperbye论文查重系统,是自带改重的论文查重系统,解决了目前市场论文查重之后,不知道怎么修改和修改论文效率低的问题,利用软件的“机器人改重”功能,实现软件

    aifayewong 7人参与回答 2023-12-09
  • python网络爬虫毕业论文

    根据题目描述,"基于python的知识问答社区网络爬虫系统的设计与实现",可以理解为设计并实现一个能够爬取知识问答社区网站上的数据的网络爬虫系统,使用Pytho

    lucaminiya 2人参与回答 2023-12-08
  • 论文模式研究爬虫

    论文——题目科学论文都有题目,不能“无题”。论文题目一般20字左右。题目大小应与内容符合,尽量不设副题,不用第1报、第2报之类。论文题目都用直叙口气,不用惊叹号

    damaodaomao 2人参与回答 2023-12-10
  • 利用爬虫写毕业论文

    论文——题目科学论文都有题目,不能“无题”。论文题目一般20字左右。题目大小应与内容符合,尽量不设副题,不用第1报、第2报之类。论文题目都用直叙口气,不用惊叹号

    听雨蘑菇 2人参与回答 2023-12-05
  • 爬虫数据分析毕业论文

    毕业论文可以用爬虫数据需要附代码吗毕业论文可以用爬虫数据需要附代码吗是可以的,但是要注意,爬虫数据的使用必须遵守相关的法律法规,以及拥有者的权利,防止侵犯他人的

    lily完美lily 5人参与回答 2023-12-12