微博用户的行为与情感分析

借助Python抓取微博数据,并对抓取的数据进行情绪分析

第一部分:微博数据抓取

(一)利用高级搜索抓取指定微博

本部分请参考文件夹WeiboSpider中的内容

1.安装依赖:

mongodb

phantomjs

redis

requirements.txt

(安装好mongodb之后需要新建数据库sina)

2.构建账号池

购买微博小号,购买链接http://www.xiaohao.shop/

将账号密码复制到 WeiboSpider/sina/account_build/account.txt\

运行 WeiboSpider/sina/account_build/login.py

运行成功会显示cookie创建成功

3.自定义检索条件

修改 WeiboSpider/sina/redis_init.py 中的日期,关键词,运行该文件进行微博检索

(本项目默认抓取热门微博,如需更改可将url中的sort设置为time)

4.开始爬虫

运行 WeiboSpider/sina/spider/weibo_spider.py 抓取目标数据

建议采取多线程同时抓取,提高速度

Mac用户在命令行中输入 scrapy crawl weibo_spider

Windows用户在命令行中输入 scrapy runspider weibo_spider.py

5.检查抓取的数据

数据会存储在sina database中,collection下会有tweets(微博)comments(评论)account(账号)

(二)根据用户id抓取任意微博

本部分请参考文件夹WeiboSpiderSimple中的内容

1.安装依赖:

mongodb

requirements.txt\

2.替换cookie:

访问 https://weibo.cn/ 并登陆,获取对应的cookie,将WeiboSpiderSimple/sina/settings.py中的cookie换成你自己获取到的cookie

3.指定爬取的用户ID

将WeiboSpiderSimple/sina/spider/weibo_spider.py中的start_uids换成你想抓取的对象的微博ID。

4.开始爬虫

执行scrapy crawl weibo_spider或者直接在pycharm当中运行WeiboSpiderSimple/sina/spider/weibo_spider.py

第二部分:探索性分析

见EDA.py

第三部分:评论情绪分析

见Sentiment analysis.ipynb

Logo

魔乐社区(Modelers.cn) 是一个中立、公益的人工智能社区,提供人工智能工具、模型、数据的托管、展示与应用协同服务,为人工智能开发及爱好者搭建开放的学习交流平台。社区通过理事会方式运作,由全产业链共同建设、共同运营、共同享有,推动国产AI生态繁荣发展。

更多推荐