@rei OSS 就是啊。本来就是 S3 clone 所以就是存文件的
16M 的 fetch block size 太恶了。这种玩法用在公网上吃个流量费就要破产了。就省流量来说,用 FUSE 做只读 mount 然后做 block 级别的缓存也比现在的方法省流量。
pack 格式肯定有改造的空间。
最后是 ssh2http 应该不是必须的?当然发现 git-upload-pack 和 git-receive-pack 是关键命令是很重要. 如果保持 ssh2http 的服务的话,明显可以做成 stream upload, 哪怕你看到某命令前面要去掉 4 bytes 也是一样,目前的做法明显是 buffered upload. 没有这个服务的话这两个命令是需要 fork 进程是吗?感觉引入两个假的 streaming upload 进程去做转 http 操作要比这个 ssh server 要好。
直播是一种更有效率的兴趣社区