ReplicatedMergeTree分布式表引擎,同一分区下利用zookeeper进行同步数据。
Distributed有点类似于mysql merge存储引擎,比较适合读取。
那如果有四台机器,2个分片2个副本,怎么样才能写入快,读取快,并且写入的时候各个分片数据都比较均衡呢?
ReplicatedMergeTree分布式表引擎,同一分区下利用zookeeper进行同步数据。
Distributed有点类似于mysql merge存储引擎,比较适合读取。
那如果有四台机器,2个分片2个副本,怎么样才能写入快,读取快,并且写入的时候各个分片数据都比较均衡呢?
关于服务器监控的文章写过很多了,例如:nagios,munin,cacti等,有兴趣的在博客里面搜索一下。
查看nginx error错误,发现上传接口报以下错:
2019/10/10 19:58:25 [error] 299784#0: *5967188 readv() failed (104: Connection reset by peer) while reading upstream, client: 59.34.155.7, server: xxxxxxxx, request: "POST /stream/tracking/file HTTP/1.1", upstream: "http://xxxxxxxx/stream/tracking/file", host: "xxxxxxxx"
这种错误日志不多,第一感觉就是上传文件过大,传输时间过长,然后连接被中断。
访问量的增大,相应nginx连接数,以及打开的文件数,是需要调整的,不然就会报以下错误
2019/10/10 16:04:37 [alert] 364127#0: *11935302 socket() failed (24: Too many open files) while connecting to upstream, client: 220.195.66.66, server:。。。。。。。。。。。。。。。。。
nextcloud安装配置,请参考: centos7 nextcloud nginx php mariadb 安装配置,本文的重点是onlyoffice安装,以及与nextcloud的整合。
samba做为共享文件服务器,其实还是挺不错的。但是用户管理,权限管理,文件操作记录等,非常的薄弱了。针对于这些问题,nextcloud就是不错的选择。
python的环境以前搭过,到博客找了一下没有。做过的东西要记录很重要的。不然就是浪费时间。
对于gunicorn和uwsgi的选择,主要看个人喜好。gunicorn配置简单点。但是如果用nginx的话,用uwsgi好一点,nginx兼容了uwsgi。
前端后数据分离后,跨域问题肯定存在的。解决办法cors,jsonp解决跨域问题,当然服务端要设置信认。也可以设置成同域,这样跨域问题就不存在了。
apache往nginx去转,代码端用到了$_SERVER['PATH_INFO'],对于nginx默认是不开启pathinfo的。所以我们就要手动开启
开发能力不强,对代码review要求比较高的话,gerrit是一个不错的选择。对代码版本的管理,个人还是推荐用gitlab。