北京赫德阳数据通信科技有限公司成立于2006年,是国内领先的云计算及数据保护软件解决方案供应商之一,专注于云计算,资源调度,运营支撑软件开发,数据复制、灾备保护技术。由一批博士,硕士等高等人才组成的研发及技术支持团队,能够快速响应客户需求,提供端到端的产品技术服务,帮助客户优化系统结构,保障数据安全。 公司数据复制产品及相关解决方案主要针对企业后台核心Oracle数据库系统,在“数据迁移”、“实时备份”、“远程异构容灾”、“平衡负载”等应用领域处于业界领先水平,同时实现商业成功。赫德阳的云计算解决方案能够整合、管理所有的物理机与不同类型的虚拟机,将资源变成服务—— 用户像使用购物车一样购买所需的IT资源(定制操作系统、内存、cpu数、存储空间等),便捷的集中管理云内IT资源:实时的监控以及事件、日志管理。根据用户的需求,对资源进行预约式或按需式的分配。保证资源的分配与实际业务优先级一致(如对不同的用户组定义不同的资源使用优先级),灵活多样的分配策略以满足业务的多样性。 目前,公司诸多解决方案已经成功应用于电信、证券金融、生产制造、交通运输、网络科技等众多对数据应用要求较高的行业。
大数据运维工程师
职责:
1、负责大数据平台系统运维工作
2、对系统可用性负责;
2、负责大数据平台与上层应用的对接工作;
3、负责大数据平台的配置、管理和优化工作;
4、参与大数据平台自动化运维工具的研发;
5、深入研究大数据业务相关运维技术,持续优化集群服务架构,探索新的大数据运维技及发展方向;
要求:
1、熟悉linux、tcp/ip网络原理等,掌握Linux操作系统的管理及优化,能够独立排查及解决操作系统层的各类问题
2、了解hadoop,storm,hive,kafka,flume,hbase,slider,spark,zookeeper等大数据相关技术
3、熟练掌握shell或Python,能够编写自动化运维脚本;
4、熟悉puppet、saltstack、ansible等配置管理工具;
5、掌握nagios、cacti、ganglia、zabbix、zenoss等监控工具者优先;
6、对关系型数据库有深刻理解,对ETL、数据仓库有深刻掌握数据库系统(Oracle,MySQL,Redis,GreenPlum任一种)的安装、配置和系统管理
7、一年以上软件系统运维工作经验,大数据相关工作经验须一年以上
邮箱:sevice@headyonder.com