ID:20871
刘倩 高级java开发工程师 8年经验
2025-05-25
个人介绍:1、熟悉面向对象编程思想、集合、多线程使用 2、熟练使用Spring、SpringMVC、SpringBoot、SpringCloud、MyBatis、MyBatis-plus、JDBC等技术框架 3、熟练运用Mysql关系型数据库、了解Redis等非关系型数据库 4、熟悉RocketMQ、kafak、Dubbo、Zookeeper中间件 5、熟悉数据库的优化:索引设置、索引底层数据结构、SQL语句执行分析等
项目经验:项目1:数据分析实验室 项目描述:为了规范数据分析管理,加强数据安全管控,提升数据应用价值,为 全行数据分析工作赋能,总行计划建 设兴业银行数据分析实验室项目,对外宣称“图灵阁”。项目模块包含系统管理(用户、角色、项目组、标签管理...)、 数据集成(一次性文件加载、脱敏自动识别、数据目录导航...)、系统监控、数据探索等模块 项目职责:1、参与需求分析,根据产品经理需求进行项目评估与排期 2、开发数据集成模块一次性文件加载(文件上传、下载、文件同步HIVE、文件上传HDFS、数据逾期删除HIVE、Range权限控制)及脱敏自动识别(UDF函数、Atlas标签)、数据目录导航同步HIVE数据 3、线上问题排查(慢sql、锁表、OOM等) 项目2:汇咨询 项目描述:汇资讯是一个获取新闻资讯的平台,将新闻咨询分类归纳并推送用户浏览查阅;项目模块包含内容管理、评论 管理、用户管理、内容审核等功能。 项目职责: 1、参与需求分析,根据产品经理需求进行项目评估与排期 2、需求功能开发,与测试部门人员配合测试,交于运维部署上线 3、文章内容的上下架、条件查询功能开发
技      能: Python  
¥800 / 8小时
立即预约
ID:22802
马淑英 测试工程师 12年经验
2025-05-25
个人介绍:熟练掌握测试理论和测试流程并用到测试中,提取测试功能点,制订合理的测试计划 熟练使用禅道,掌握测试流程,对缺陷进行管理和跟踪 熟练使用fiddler、postomen进行抓包和接口测试 熟练掌握mysql数据库的使用,Navicat进行增删改查 了解xshell的基本使用,能够通过其查看项目日志 能够通过badboy录制脚本,并结合jmeter进行性能测试 了解python+selenuium+unitest框架 能够正确输出测试文档
项目经验:项目描述: 中台是一个前台作战单元和后台资源部门之间的组织模块,主要功能有:拍照测评、用户画像等 拍照测评:主要有实时测评及批量测评。 用户画像:根据用户属性及行为,定义用户标签,通过用户标签,给对应用户推送微信消息 项目职责: 1.熟悉产品需求,参加需求评审,与产品、开发沟通需求,讨论测试方法 2.根据产品需求使用xmind编写测试需求导图和测试要点,提前预知流程问题,同产品协商讨论 3.根据产品原型及需求文档,编写功能测试用例,开展测试用例评审,修改并完善测试用例 4.使用mysql数据库筛选对应画像的用户 5.通过内网穿透的方法,进行测试环境推送微信消息 6.使用postman进行接口测试,模拟微信发送推文消息 7.使用badboy+jmeter对测评接口进行压力测试 7.使用bug管理工具禅道进行bug提交和跟踪 8.上线后跟踪线上数据,进行线上验收 9.编写和提交测试报告 项目描述: 产品信息管理系统是一个维护公司电商产品的管理平台,有web端、小程序端、h5端,不同客户端的功能也不相同。 web端主要负责产品平台、类目的维护,管理员账号管理、角色配置,采购单管理,供应商维护; 小程序端主要是供应商使用,主要功能有供应商入驻、接单、采购状态更新、采购单发货、新品推介等; h5端主要功能有产品信息查看、修改,质检信息上传 项目职责: 1.熟悉产品需求,参加需求及UI评审,与产品、设计沟通需求,提高前期的工作效率 2.根据产品需求使用xmind编写测试需求导图和测试要点,提前预知流程问题,同产品协商讨论 3.根据产品原型及需求文档,编写功能测试用例,开展测试用例评审,修改并完善测试用例 4.使用bug管理工具禅道进行bug提交和跟踪 5.使用postman进行接口测试,fiddler进行小程序抓包 6.上线后跟踪线上数据,进行线上验收 7.编写和提交测试报告 8.上线后给相关人员进行使用培训,根据运营要求通过mysql导出数据报表
技      能: 其他  
¥300 / 8小时
立即预约
ID:22410
陈欣 数据采集工程师助理 9年经验
2025-05-25
个人介绍:1、基本的编码基础(python) 对于任何编程工作来说都是必须的。数据名字和值得对应(字典),对一些url进行处理(列表)等等。掌握牢固。熟悉python编程语言,熟悉相关的框架和库。我主要用Python写爬虫。 2、任务队列。 当爬虫任务很大的时候,写一个程序跑下来是不合适的: 所以我们需要一种任务队列,它的作用是:讲计划抓取的网页都放到任务队列里面去。然后从队列中拿出来一个一个执行,如果一个失败,记录一下,然后执行下一个。这样就可以一个接一个地执行下去。也增加了扩展性,几亿个任务放在队列里也没问题,有需要可以增加worker,就像多一双亏筷子吃饭一样。 3、数据库 数据保存肯定要会数据库的。不过有时候一些小数据也可以保存成json等。我有时想抓一些图片就直接按照文件夹保存文件。推荐使用NoSQL的数据库,比如mongodb,因为爬虫抓到的数据一般是都字段-值得对应,有些字段有的网站有有的网站没有,mongo在这方面比较灵活,况且爬虫爬到的数据关系非常非常弱,很少会用到表与表的关系。 4、HTTP知识 HTTP知识是必备技能。因为要爬的是网页,所以必须要了解网页。首先html文档的解析方法要懂,比如子节点父节点,属性这些。我们看到的网页是五彩斑斓的,只不过是被浏览器处理了而已,原始的网页是由很多标签组成的。处理最好使用html的解析器,如果自己用正则匹配的话坑会很多。 5、运维 实际工作中运维和开发的时间差不多甚至更多一些。维护已经在工作的爬虫是一个繁重的工作。随着工作时间增加,一般我们都会学着让写出来的爬虫更好维护一些。
项目经验:爬百度贴吧的评论 爬京东的商品名和价格包括图片评论,保存到excel 爬取豆瓣电影的评分,详细介绍报保存成文件 爬取斗图网的图片保存文件
技      能: 其他  
¥1500 / 8小时
立即预约
立即预约
意见反馈