从这个帖子来猜的:http://www.deyi.com/thread-18078859-1-2.html
以前的跨房是Z火的,数据量太大,估计想单独把房版的数据单独分个库出来,免得拖累整体数据库,然后可以单独给房版优化。。。。
从这个帖子来猜的:http://www.deyi.com/thread-18078859-1-2.html
以前的跨房是Z火的,数据量太大,估计想单独把房版的数据单独分个库出来,免得拖累整体数据库,然后可以单独给房版优化。。。。
不可能分库吧?分表吧?分库了…所有的都要调整!路由…sql!都要重写吧!
只能说你想多了,这是方案性的东西,要做早做好了。
renci发表于 2019-08-05 17:03 只能说你想多了,这是方案性的东西,要做早做好了。
房版上亿的数据,100多个G,单独分库,放到单独的阿里云机器上,很正常的做法。
现在那个管家说是从本地移到阿里云上,结果花了这么久,不知道问题出在哪里。
小肥发表于 2019-08-02 22:46 不可能分库吧?分表吧?分库了…所有的都要调整!路由…sql!都要重写吧!
discuz如果支持,就一设置的问题。
不支持 那是分表 分数据库不可能一下做好
数据量太大,达到100多个G的话,分库是比较合理的方式,光分表效果不大吧
这么久了 肯定是分库了 不然分表早搞完了 我搞过1年多的dz
看来是跟不上公司的发展
100G的数据很大,我表示醉了。。去年维护一客户每天5G的增量。
lyy718发表于 2019-08-15 09:38 100G的数据很大,我表示醉了。。去年维护一客户每天5G的增量。
不要装,搞技术的Z喜欢装。说事情就说事情,总喜欢装六个指甲。
真不是装,只是想表达,如果仅仅是100G的数据量导致这么久这个板块无法恢复,有点扯。。
lyy718发表于 2019-08-15 14:01 真不是装,只是想表达,如果仅仅是100G的数据量导致这么久这个板块无法恢复,有点扯。。
你看下我发帖是什么时候,当时想的是,再搓,一周是绝对够了的。。
所以才有后面这个贴:http://www.deyi.com/thread-18120456-1-1.html
lyy718发表于 2019-08-15 14:01 真不是装,只是想表达,如果仅仅是100G的数据量导致这么久这个板块无法恢复,有点扯。。
而且,是从总体数据库中,挑选出100G来,想的是,给他们两天时间,肯定是够了的。
对于discuz来说,一个板块的数据,上了100G,算是个大论坛了。。。而且。。这是个假设的数据,随便说说的。
老子可以看懂楼上所有人的每一个字,但是连在一起就完全不明白了。
我看更大可能是封了关停顺便做优化,等军运会开完吧
©2008-2024 得意生活 版权所有 鄂B2-20080065