GD团队盘批量转存有没有解决方案,各种限制太多了
想备份自己的几百T资源
-----------------------------------------------------
网友回复:
引用:zgs发表于2020-11-2617:46
relone
弄个GCP小鸡
网友回复:
几百T大多都是转存的吧,看看能不能找到源分享链接
不然每天只能转20T
网友回复:
750G的转存上限的突破方法很多,但是目前GD限制每天个人盘2T分享上限,团队盘对拷20T或者40T上限,分享上限目前没有解决办法。
网友回复:
引用:不要搞我哇发表于2020-11-2617:55
几百T大多都是转存的吧,看看能不能找到源分享链接
不然每天只能转20T
网友回复:
引用:向阳而生发表于2020-11-2617:56
750G的转存上限的突破方法很多,但是目前GD限制每天个人盘2T分享上限,团队盘对拷20T或者40T上限,分享上限...
网友回复:
有个项目叫做autorclone,利用多个账号来接力存储,每个账号跑730G就更换账号
网友回复:
引用:GiGaFotress发表于2020-11-2618:03
有个项目叫做autorclone,利用多个账号来接力存储,每个账号跑730G就更换账号...
网友回复:
引用:GiGaFotress发表于2020-11-2618:03
有个项目叫做autorclone,利用多个账号来接力存储,每个账号跑730G就更换账号...
网友回复:
引用:q2749194210发表于2020-11-2618:37
我知道
我使用9个帐号每个帐号生成30个服务号
使用gd-utils 还是有很多限制