• 回答数

    2

  • 浏览数

    219

小妖精87623
首页 > 毕业论文 > 毕业论文爬虫分析

2个回答 默认排序
  • 默认排序
  • 按时间排序

冰河水心

已采纳

如果要把数据采集下来的话,建议用集搜客gooseeker网络爬虫,简单易学,完全满足楼主的要求,至于文本分析,这个就会涉及到算法一类的,主要看你像进行什么分析,需要对文本进行清洗后才能展开分析。

197 评论

冬日红葉

做爬虫,特别是python写说容易挺容易,说难也挺难的,举个栗子 简单的:将上面的所有代码爬下来写个for循环,调用urllib2的几个函数就成了,基本10行到20行以内的代码难度0情景:1.网站服务器很卡,有些页面打不开,urlopen直接就无限卡死在了某些页面上(以后urlopen有了timeout)2.爬下来的网站出现乱码,你得分析网页的编码3.网页用了gzip压缩,你是要在header里面约定好默认不压缩还是页面下载完毕后自己解压4.你的爬虫太快了,被服务器要求停下来喝口茶5.服务器不喜欢被爬虫爬,会对对header头部浏览器信息进行分析,如何伪造6.爬虫整体的设计,用bfs爬还是dfs爬7.如何用有效的数据结构储存url使得爬过的页面不被重复爬到8.比如1024之类的网站(逃,你得登录后才能爬到它的内容,如何获取cookies以上问题都是写爬虫很常见的,由于python强大的库,略微加了一些代码而已难度1情景:1.还是cookies问题,网站肯定会有一个地方是log out,爬虫爬的过程中怎样避免爬到各种Log out导致session失效2.如果有验证码才能爬到的地方,如何绕开或者识别验证码3.嫌速度太慢,开50个线程一起爬网站数据难度2情景:1.对于复杂的页面,如何有效的提取它的链接,需要对正则表达式非常熟练2.有些标签是用Js动态生成的,js本身可以是加密的,甚至奇葩一点是jsfuck,如何爬到这些难度3总之爬虫最重要的还是模拟浏览器的行为,具体程序有多复杂,由你想实现的功能和被爬的网站本身所决定爬虫写得不多,暂时能想到的就这么多,欢迎补充

339 评论

相关问答

  • 英硕毕业论文爬虫

    准不准得看学校要求而定,不同的查重软件收录的数据库和算法上的差异导致查重结果有出入的,PaperFree论文查重软件通过海量数据库对提交论文进行对比分析,准确地

    jessica-qn 4人参与回答 2023-12-08
  • 爬虫摘要毕业论文

    当然可以,现在有很多的,但是你必须保证爬取的数据的质量啊

    四合院追糖葫芦 3人参与回答 2023-12-09
  • 爬虫爬取毕业论文

    做爬虫,特别是python写说容易挺容易,说难也挺难的,举个栗子 简单的:将上面的所有代码爬下来写个for循环,调用urllib2的几个函数就成了,基本10行到

    追趕跑跳碰 4人参与回答 2023-12-07
  • 毕业论文爬虫分析怎么写

    论文的数据分析怎么写如下: 首先,针对实证性论文而言,在开始撰写论文之前,必须要提前确定好数据研究方法。而数据研究方法的确定与选择需要根据大家毕业论文的研究课题

    盛开的七月 3人参与回答 2023-12-07
  • 毕业论文不会爬虫

    毕业论文抄知乎的内容会被知网检测到。 1.一定会的,因为只要是互联网资源,知网数据库是一定会收录的啦。楼上回答的已经很详细了,不过还要补充一点:知网现在不管是p

    gaooooo汪汪 4人参与回答 2023-12-12