GD团队盘批量转存 有没有解决方案,各种限制太多了
侧边栏壁纸
  • 累计撰写 57,512 篇文章
  • 累计收到 0 条评论

GD团队盘批量转存 有没有解决方案,各种限制太多了

James
2020-12-04 / 0 评论 / 68 阅读 / 正在检测是否收录...

GD团队盘批量转存有没有解决方案,各种限制太多了

想备份自己的几百T资源


-----------------------------------------------------
网友回复:

引用:zgs发表于2020-11-2617:46

relone

弄个GCP小鸡


网友回复:

几百T大多都是转存的吧,看看能不能找到源分享链接

不然每天只能转20T


网友回复:

750G的转存上限的突破方法很多,但是目前GD限制每天个人盘2T分享上限,团队盘对拷20T或者40T上限,分享上限目前没有解决办法。


网友回复:

引用:不要搞我哇发表于2020-11-2617:55

几百T大多都是转存的吧,看看能不能找到源分享链接

不然每天只能转20T


网友回复:

引用:向阳而生发表于2020-11-2617:56

750G的转存上限的突破方法很多,但是目前GD限制每天个人盘2T分享上限,团队盘对拷20T或者40T上限,分享上限...


网友回复:

有个项目叫做autorclone,利用多个账号来接力存储,每个账号跑730G就更换账号


网友回复:

引用:GiGaFotress发表于2020-11-2618:03

有个项目叫做autorclone,利用多个账号来接力存储,每个账号跑730G就更换账号...


网友回复:

引用:GiGaFotress发表于2020-11-2618:03

有个项目叫做autorclone,利用多个账号来接力存储,每个账号跑730G就更换账号...


网友回复:

引用:q2749194210发表于2020-11-2618:37

我知道

我使用9个帐号每个帐号生成30个服务号

使用gd-utils 还是有很多限制

0