工作内容
- 使用Python编写爬虫程序,爬取海内外特定领域的论文及专利信息(Google Scholar / arXiv / IEEE Xplore)。
- 设置定时任务,定时(每周)爬取新的论文及专利信息。
- 公司提供美国的服务器。
时间要求
- 一个月内实现
其他要求
- 公司产品为特定领域面向B端的Copilot,市场前景很好,不过初创公司钱不多,预算1万内,如介意请移步。
- 如技术过硬可长期合作。
招聘类型:
外包零活
职业:
开发
工作方式:
线上兼职
城市:
上海
领域:
AI/人工智能
工作内容
时间要求
其他要求
我有 scrapy 爬虫很多案例经验,用于从电子商务平台检索产品名称、ASIN、价格、图片等,希望合作!
6 年 Python 开发经验,后端开发/采集工程师,有意请联系,QQ:2427219623
该岗位还在招聘吗
算法工程师,有爬虫经验,后续可合作其他项目,欢迎联系。
你好,有实际爬取 IEEE 各类论文的项目经验,并有大量数据存档。如果方便,可对接一下实际需求,符合的话,可将现有成果快速交付。
精通python的 requests 和scrapy框架的,有各种反爬经验,最近一个月时间充足,欢迎找我!
爬取过论文
爬虫得经常维护吧,别人网站改动了,估计就得跟着改
爬虫程序不难实现,但是一个长期攻防的过程,提供了程序过两天可能就没用了。
可以聊一下
可以联系
您好 有多年万F 知W 国家知识CQJ爬取文献和运维代码经验,累计数量近千万,对这种论文模式比较熟悉 ,望合作。
有意,沟通下详细需求(接项自带Python后端)