Ruby China
  • 社区
  • 招聘
  • Wiki
  • 酷站
  • Gems
  • 注册
  • 登录
wj
@wujian_hit
高级会员
第 2452 位会员 / 2012-06-07

哈尔滨工业大学
北京
22 篇帖子 / 86 条回帖
2 关注者
0 正在关注
2 收藏
腐男coder
GitHub Public Repos
  • hadoop-spark-hive-clus... 52

    hadoop-spark-hive-cluster-docker

  • xmnlp 36

    xmnlp中文分词工具,java编写,统计概率分词+规则分词实现,功能包括人名识别,词性标注,用户自定义词典扩展,分词效果速度都超过开源版的jieba分词。

  • nlpir_x64 6

    nlpir for linux_x64

  • softlearning 0

    Softlearning is a reinforcement learning framework for training maximum entropy policies in conti...

  • jsmaz 0

    Java port of smaz, a small string compression algorithm

  • jso 0

    a Realtime Search Engine On Desktop.

  • v2hero 0

    All Free . Deploy V2Ray to Heroku . v2ray学习参考

  • gonum 0

    Gonum is a set of numeric libraries for the Go programming language. It contains libraries for ma...

  • easytrader 0

    提供同花顺客户端/国金/华泰客户端/雪球的基金、股票自动程序化交易以及自动打新,支持跟踪 joinquant /ricequant 模拟交易 和 实盘雪球组合, 量化交易组件

  • crazyclick 0

    some useful *.rb

More on GitHub
  • 概况
  • 话题
  • 回帖
  • 收藏
  • 正在关注
  • 关注者
  • 写了一个中文分词的 gem——nlpir at 2013年12月04日

    #37 楼 @bao1018 it just support x86 platform windows and linux , the reason is NLPIR2013 for x64 has much serious bugs ...... But a good news is the official team of NLPIR will release the perfect version-2014 at 2014.Dec... and I will release the no-bug gem in time. thank you support.

  • 写了一个中文分词的 gem——nlpir at 2013年12月04日

    #36 楼 @changwu 你好,这是因为包的授权期限到了。已经 push 了最新的 gem-x86-linux-0.1.0.

  • Watir+Nokogiri 爬虫抓东西的简直了 at 2013年11月09日

    #19 楼 @bydeath http://ruby-china.org/topics/14084 请看这里和讨论。

  • 天了噜,heroku 让我升级到 2 x dony。。。 at 2013年10月27日

    #8 楼 @xieren58 这是我人品有问题么。。。

  • rmmseg-cpp 在 ruby 2.0 环境下遇到的问题和修复方法 at 2013年10月27日

    #1 楼 @icemark 本贱虚荣心感到非常满足,感谢使用

  • 天了噜,heroku 让我升级到 2 x dony。。。 at 2013年10月27日

    #4 楼 @xieren58 倒是没 sleep,31 天过了他不让我用了。。。重新 push 了一个项目...

  • 天了噜,heroku 让我升级到 2 x dony。。。 at 2013年10月18日

    #1 楼 @swachian 正在重新建一个。。是免费只可以用 720 小时么?

  • Nokogiri 如何抓取原网页通过 js 或者 ajax 加载至网页的内容 at 2013年09月13日

    #3 楼 @xiaogui 其实可以用一些像 selenium 一样的东东来像浏览器一样 run js,而不用自己去解析 js 中的 ajax。社区里黄亿华先生写的通用爬虫 https://github.com/code4craft/webmagic

  • 哈工大 LTP-Cloud 提供自然语言处理服务的 ruby 接口 at 2013年09月12日

    #6 楼 @outman 这个老师其实之前也有考虑,最后还是决定用 xml。xml 统治 web service 很长时间,虽然相对 json 它数据冗余较多。但 xml 格式上较 json 更清晰易读,冗余了就一定程度上意味着描述能力更强一些。

  • 哈工大 LTP-Cloud 提供自然语言处理服务的 ruby 接口 at 2013年09月12日

    #1 楼 @yfractal 在自然语言处理领域还是有些底蕴。智能拼音输入法、机器翻译、信息检索。

  • 哈工大 LTP-Cloud 提供自然语言处理服务的 ruby 接口 at 2013年09月12日

    #2 楼 @danielpowter 欢迎学长常回来看看~

  • 哈工大 LTP-Cloud 提供自然语言处理服务的 ruby 接口 at 2013年09月12日

    #3 楼 @outman 是的。自己制定了一套标签用于描述词性、语义特性。

  • 通过分析 GitHub 获得你的工作习惯和偏好 at 2013年09月10日

    #8 楼 @showlovel 只是修辞的话会不一样,但是信息好像一样的。

  • 通过分析 GitHub 获得你的工作习惯和偏好 at 2013年09月10日

    #6 楼 @search 👍

  • 通过分析 GitHub 获得你的工作习惯和偏好 at 2013年09月10日

    #2 楼 @Teddy 说不定是github的问题,识别语言不是很准。有两个c#.net被github识别成了js。。。

  • 是先写 UI 还是先写 Function?个人如何最高效率的开发项目? at 2013年08月17日

    要做一个新功能可以先 mockup 一下,这样子你会对需求理解的更清楚,而且会可视化的明确下一步要干什么,target 有了再开始实现 function。

  • 写了一个中文分词的 gem——nlpir at 2013年08月16日

    #34 楼 @whh 识别这些词汇这个需要专门的行业词库。

  • Nokogiri 编码问题解决 at 2013年08月15日

    #7 楼 @hick 如果你确切的知道 string 的编码类型,#encoding=‘XXX’就行。如果你也不清楚编码是什么的话,可以用 rchatdet19 这个 gem 猜一下字符串的编码,不过猜的也会有不准的时候,特别是当你的 string 很短时。毕竟是猜的。

  • 写了一个中文分词的 gem——nlpir at 2013年08月09日

    #30 楼 @boostbob 请教一下 elasticsearch 需要分词模块完成一些特定的接口标准吗?

  • 写了一个中文分词的 gem——nlpir at 2013年08月03日

    #26 楼 @staticor 我没有 mac 机,不过 brew 应该和 ubuntu 的 apt-get 是一种类型的工具,用于安装软件。这个只是一个 gem。。。gem install 就 ok.

  • 写了一个中文分词的 gem——nlpir at 2013年08月01日

    #24 楼 @Yujing_Z 好主意!

  • 写了一个中文分词的 gem——nlpir at 2013年07月31日

    #22 楼 @u1360749170 四野之内,六合之间,必是我党笑傲江湖~ 😄

  • ruby 的中文支持。找了 1 个月了木有解决麻烦大神帮忙 at 2013年07月30日

    ruby2.0 没有问题。。。ruby1.9 不晓得是不是因为楼主的编辑器字符集不是 UTF-8。导致打出的路径本来就不是 utf-8 编码。所以解析错误。我在 windows 下试过,没有这个问题。

  • 写了一个中文分词的 gem——nlpir at 2013年07月29日

    #17 楼 @u1371780084 帖子更新了,您关心的性能问题,可以看一下。

  • 有关网络安全 求推书 at 2013年07月29日

    #10 楼 @RKLNF http://vdisk.weibo.com/lc/hGmKAy0xFnc6UGO4 密码:TW4R

  • 写了一个中文分词的 gem——nlpir at 2013年07月29日

    #15 楼 @u1371780084 分词速度单机 996KB/s,分词精度 98.45%,

  • 写了一个中文分词的 gem——nlpir at 2013年07月29日

    #7 楼 @huacnlee 先 init 一下,然后 call method u want,最后 exit 一下释放资源。原本也想直接把这个封装进函数,但是考虑到可能会丧失灵活性和降低性能,最后还是决定让大家调用的时候自己初始化和释放比较好。也很无奈啊~c就是这样子。。

  • 写了一个中文分词的 gem——nlpir at 2013年07月29日

    #12 楼 @luikore ICTCLAS2013 ,pure c 编译的.so

  • 写了一个中文分词的 gem——nlpir at 2013年07月29日

    #6 楼 @kamiiyu 嘿嘿。低调低调

  • 写了一个中文分词的 gem——nlpir at 2013年07月29日

    #7 楼 @huacnlee 取名这样是为了和官方文档的介绍保持一致。

  • 上一页
  • 1
  • 2
  • 3
  • 下一页
关于 / RubyConf / Ruby 镜像 / RubyGems 镜像 / 活跃会员 / 组织 / API / 贡献者
由众多爱好者共同维护的 Ruby 中文社区,本站使用 Homeland 构建,并采用 Docker 部署。
服务器由 赞助 CDN 由 赞助
iOS 客户端 / Android 客户端 简体中文 / English