ID:21643
董玉梅 C#高级开发 12年经验
2024-12-20
个人介绍:精通C#,winform,asp.net mvc,delphi 熟系asp.net core平台,Html、CSS、JavaScript,Jquery,Python 熟系autofac、log4Net、Quartz.NET、Dapper等开源框架 webService,Webapi 精通Sqlserver存储过程编写 制定通讯协议Socket,Xml,Json等 拥有多个平台的通讯协议资源(文档及协议代码实现) 熟悉公安部无锡GB38900协议 熟悉国家环保平台新车下线数据对接协议 熟悉东软分级诊疗平台服务接口规范 丰富的数据采集、流程控制、三方系统对接经验 擅长系统架构优化、接口协议的制定和开发协调等
项目经验:一、无锡所机动车检测系统数据联网报送系统 接收检测站的检测系统的数据报送并传输给无锡联网平台或第三方GB38900联网服务平台 拥有一套稳定的检测系统的接口通讯协议 拥有一个WebService或Webapi协议 拥有视频显示web网页 具有参数管理支撑Web界面 对接多个平台,无锡平台、昂特平台、永泰平台、恒通平台、弘盛平台、安车平台、精码平台、邦元平台、微轲联等平台 二、环保视频录像传送服务系统 录制多个检测线的视频并传送 三、新车下线检验数据上传 OBD、排放等数据的上报 四、山西大同东软分级诊疗平台服务接口规范数据上报服务 一个WebService服务,实现医院分级诊疗数据的接收和存储 五、深圳边防站自助通道梅沙系统接口对接 Socket协议的联网实现
技      能: .NET  
¥300 / 8小时
立即预约
ID:22336
张岩 数据分析师 5年经验
2024-12-20
个人介绍:数据清洗与处理: 1. 使用Python编程语言,利用Pandas和NumPy库进行数据清洗、转换和整合。 2. 清理数据中的异常值、缺失值,并进行数据格式的标准化。 数据建模与预测: 1. 应用机器学习技术,包括Scikit-learn和TensorFlow,构建和优化各种模型。 2. 实施数据预测、分类和聚类任务,以提供业务洞察和决策支持。 爬虫技能: 1. 使用Python的Beautiful Soup和Scrapy库,从互联网上抓取大规模数据集。 2. 自动化数据采集流程,确保及时获取所需数据。 API接口调用与自动化数据采集: 1. 使用Python的requests库等工具,通过API接口获取数据,并进行解析。 2. 与外部数据源(如社交媒体平台、金融数据提供商等)进行交互,获取实时数据,并提取所需信息。 3. 设计定时任务或事件触发机制,实现数据自动更新和同步,确保数据的及时性和准确性。 4. 将API数据与本地数据集结合,进行综合分析和建模,为业务决策提供更全面的信息支持。 SQL数据库能力: 1. 熟练编写SQL查询语句,管理和提取数据。 2. 在关系型数据库中执行复杂数据操作和分析。 数据可视化能力: 1. 利用Power BI等工具,将数据转化为直观、易懂的可视化图表和报告。 2. 帮助业务人员快速理解数据趋势和洞察,支持决策制定。 自动化能力(RPA): 1. 使用RPA工具,例如Power Automate,自动化数据处理和报告生成流程。 2. 提高工作效率,减少重复性工作,降低错误率。
项目经验:B站监控及自动化项目: 1. 每日自动存档UP主运营数据(新增粉丝数、互动量等数据) 2. 每日追踪UP主发布的动态并自动发送邮件给团队成员(包括标注重要程度) 3. 自动获取视频评论、采集评论内容并自动定位到对应评论,一旦有提及关键词立即进行回复 4. 其他数据分析,包括生成Power BI可视化报表、词云、大事件等 爬取企查查工商数据: 根据项目需要,批量爬取企查查上目标行业或公司的具体工商数据,包括基本的工商信息、股东信息、主要人员、对外投资、控制企业等。 爬取猎聘网招聘信息: 根据项目需要,批量爬取猎聘网上符合条件的职位或公司的招聘数据,包括具体的职位详情、公司相关信息。后续处理后发给团队成员跟进机会。 销售成单预测: 基于业务历史5年的销售数据,进行数据清洗和处理、数据建模和模型优化,预测下个月内close as won的机会有多少、能带来多少的order,预测准确率达85%。 Key Account关系图谱: 使用图像式数据库Neo4j对某大客户的组织架构、人员关系、交易情况搭建关系图谱,帮助销售团队更清楚地认知该重要客户的架构以及我们现在所处的阶段、未来还需要挖掘哪些信息。
技      能: 其他  
¥600 / 8小时
立即预约
ID:21324
孙淑华 高级C#开发工程师 15年经验
2024-12-18
个人介绍:具有软件设计师资格及信息系统项目管理师资格,参加过CMMI L3认证过程。10年加的软件开发和项目管理经验,对零售批发行业,法院案件审理,煤矿监管等方面业务熟悉。技术平台使用.net/.net core/java/python,多行业的数据加工处理系统,数据分析系统,跨平台的WebAPI应用系统,文本相似度分析、聚类应用、文本分类等NLP训练识别等。相关技术都有多个项目全过程实践,敏捷开发的推崇者,设计模式,面向对象思想的践行者。
项目经验:山西省煤矿人员联网和山西省执法网等煤矿应用系统的开发管理及维护,主要负责相关软件的主要版本开发及管理工作。 项目计划过程主要使用了功能点估算方法,依照cmmil3开发流程执行。 主要技术:Extjs+ASP.NET+Postgres、Mysql、Mongodb、DB2。 设计开发工具:Excel+Word+Project+PowerDesigner+VS2008。 主要负责公司框架平台、煤矿隐患排查、安全检查、生产要素管理等系统的开发管理及维护工作。 使用的主要技术:JQuery+SuperWebSocket+ASP.NET MVC+WCF+ADO.NET+SQLServer。 设计开发工具:Excel+Word+Project+PowerDesigner+VS2010。 法院行业应用软件及大数据产品开发,主要技术平台如下: ● C#+.NET Core WebAPI /Python+ EF + SQLServer、MySql+Docker。 ● JAVA+gRPC+Spring Boot+MyBatis/Spring AMQP+Mysql/RabbitMQ ● Spring Cloud Data Flow+Mysql/ES/Hbase/HDFS/Hive/Spark ● 设计开发工具:MindManager+Word+Project+PowerDesigner+VS2019/Idea2020。
技      能: Node.js  
¥600 / 8小时
立即预约
ID:20608
钟利 高级java工程师 15年经验
2024-12-18
个人介绍:1. 拥有10年Java开发经验,对Java语言有深入的理解和应用能力。 2. 熟练掌握Spring, SpringBoot, MyBatis, SpringMVC等主流Java框架,能够快速构建和优化项目结构。 3. 熟悉SpringCloud和Dubbo微服务框架技术,具备微服务架构设计和开发经验。 4. 熟练使用MySQL等主流数据库,掌握SQL编写,对索引、事务、隔离级别等数据库原理有深入理解。 5. 熟悉Redis,了解其持久化方式、数据同步机制,能够根据项目需求进行合理的缓存设计。 6. 具备近1年的数据团队工作经验,对数据团队的工作流程和技能有一定了解,能够与数据团队高效协作。 7. 带领过4-7人团队,具备较强的沟通协调能力,能够独立推进项目工作,具备团队管理经验。 8. 对互联网金融行业技术发展有深刻理解,能够根据业务需求进行技术选型和架构选型。 9.了解前端技术node,html,css,js等技术。
项目经验:数据录入系统 该项目是平时自己研发的小工具。经过优化后在公司落地使用,解决了公司线下维护的台账 excel 数据 入库到 mysql 数据库中, 用以数据指标加工,数据服务 api 设计,以及数据的清洗等难题。 主要功能:密钥管理,文件录入,模板管理。 参与工作:产品设计和开发,工作进度把控,迭代优化,文档编写,后续维护等。 技术:springboot,minio,mysql,jdbc ,百度 amis,nginx 反向代理等技术。 操作步骤和优点 1、 根据系统提供的模板整理线下数据到 excel中,并在系统中根据要求新建模板维护跟 excel 表列数一样的模板字段,并生成建 表 sql。 2、 提交到 sql 审核平台审核。(目的是为了安全留痕) 3、 建表完成后,即可进行模板对应 excel 的导入。不用针对不同 excel 做单独解析。节省开发时间,提升效率。 ————————————————————————————————————————————————— 数据大屏项目 角色:项目经理+java后端研发 一个数据大屏的编辑工具。主要包括用户管理,权限管理,数据源管理,数据集管理,报表管理,大屏报表,表格报表,报表分 享,系统管理等功能。 用户管理,权限管理:做到了功能菜单按钮级别。 数据源管理:支持配置 mysql,SQL server,oracle,presto,http,jdbc,elasticsearch_sql 等多种数据源,并支持联通性测 试。 数据集管理:支持两种方式。 1、sql 方式:选择系统内配置的可用数据源,写 sql 进行查询相关数据,并有数据转换功能; 2、http 接口请求方式:配置好相关的 http 请求路径和请求头以及相关入参,获取接口返回的数据,并支持数据转换功能。上述 的数据转换功能可以写 java 脚本,js 脚本和字点翻译。 报表管理:支持两种类型的报表。 1、大屏报表,即可以分享出一个不用登录且存在有效期的 http 连接,客户可以打开这个连接后全屏展示到已经设计好的屏幕上。 2、表格报表:即 excel 报表,可以用于数据报表的生成,支持导出功能。 报表分享:展示的是已经分享出来的大屏报表,可以在这里进行查看 url 连接、分享码、以及控制有效期。 ————————————————————————————————————————————————— 轻量化ETL平台 背景:数据中台产品群产品结构复杂,数据中台的部署需要依托于大数据平台的底座,这决定了市场上存在很多公司对于数据中台 的需求度不高,因此需考虑一种无需依托大数据平台的轻量化的数据开发工具。 轻量化 ETL 平台:通过拖拉拽的方式配置工作流的方式,实现了对数据进行抽取、加工、回流等工作。 根据开源的 kestra 的0.5.3版本进行二次开发的,支持可插拔的插件方式部署。相关技术栈:micronaut、gradle、mysql、jdbc 数据录入系统 项目经理+后端研发 2021.07-2021.08 海航差旅销售平台 分析,设计,开发,维护 2016.04-2016.07 等。 主要功能如下: 任务流管理,任务执行记录,任务调度,执行日志,任务编排,数据源管理,数据服务 api ,文件导入等。 任务流管理:是通过拖拉拽的方式实现的,每个工作流节点都可以进行任务编排填写相关配置,编排好的工作流节点 通过连线的 方式指向下一个工作流节点,依次类推设计好工作流。同时可以通过 cron 表达式配置该任务流执行的时间,或者配置为 webhook 方式请求的 api 接口等。 任务执行记录:编排好的工作流可以根据 cron 表达式的时间执行,也可以根据外部接口调用方式执行, 每次执行都会有相关执行记录,进度条,状态,执行日志以及 每个工作流节点的输出内容。 数据源管理:可以在这里管理数据源,目前仅支持 mysql,oracle 数据源配置,并同步相关数据源中的 schema ,数据库,数据 表和表字段等元信息。方便用于工作流的数据源节点进行选择。 数据服务 api :目前仅实现了 get 请求的功能,通过配置请求和相应参数,写查询 sql ,通过 jdbc 方式进行查询远程数据。
技      能: Java  
¥1500 / 8小时
立即预约
立即预约
意见反馈