现在北京一家游戏公司担任运维开发工程师职位,主要负责 Hadoop 集群,远程管理 (类似 Salt/Puppet) 和数据库集中采集 (Python) 三块业务。目前已经跟领导提出离职申请了。大概还需要 20 多天,主要完成手头的项目和一些工作交接。
下面是我的一些技能介绍:
Ruby/Rails:2012年开始接触,但是当时还在从事运维工作,2013年8月份才在社区@leokpu的推荐下,开始正式学习。关于 Ruby,看完《Programing Ruby》,没有太多的项目经验,Rails 水平也局限在看完两边《Ruby on Rails Tutorial》和一遍《Ruby on Rails 實戰聖經》,也没有项目开发经验。
Linux/OS X 因为一直从事运维和运维开发的工作,所以 linux 比较熟悉,平时办公也是在*nix 系统下。所以用起来相对得心应手。
Python 在基于 linux 的后台开发中,都集中在 Python/Shell 脚本开发上,尤其集中在 socket ,多进程,日志记录,数据交互方面,关于 PyQt,和 Django 也有一些了解和开发。
开发工具: 主要用 Sublime Text、Gvim/Vim
英文水平: 能正常阅读英文文档,平时也是通过 vpnxx 访问 stackoverfolw/github 获取信息。说,听,写很一般。
下面是我的一些项目经验:
集中日志分析系统 项目描述:收集所有服务器日志用于统计日志信息,及时发现错误,故障与安全隐患。 我的职责:确定需求分析,选型日志服务器软件(运用 rsyslog+loganalyzer 组合搭建)和划分日志等级,呈现 demo,并且应用线上环境。
数据中心(游戏数据库集中采集) 项目描述:定时采集线上游戏数据,生成曲线图像,分析数据变化,根据数据现象作出报告或者对应调整。 我的职责:使用 python 多进程和 mysql 数据库的结合,完成每次对 80 个 IP,70 张数据表的数据采集。并且完成采集后一系列运算操作。
远程管理(自动化管理) 项目描述:远程管理 (manage) 是类似 salt,puppet 采用 C/S 星状结构,支持所有 (linux/win) 服务器客户端,完成任务指令和数据传递并且支持自定义拓展应用的管理工具。 我的职责:规划 manage V2,增强 manage 程序的自适应性,根据自拓展应用做相应的后台开发。
hadoop 数据仓库(数据录入和数据仓库) 项目描述:hadoop 数据仓库是由数据录入程序和数据仓库两部分组成。主要实现 hadoop 数据的生成。为 hadoop 数据中心提供数据保障。 我的职责:参与数据仓库设计和创建,并且完成数据的流动的程序编写 (python)。
工作已找到!谢谢诸位。