23 条回复  ·  2546 次点击
shunia 小成 2025-6-26 10:12:02
@cjpjxjx #5 对啊,既然要在意服务器流量和“阅后即焚”,不恰恰应该是相反的吗? 大文件走 P2P 不消耗服务器流量; 小文件存服务器上也无所谓,还不用一直开着网页等对方来下载,只要对方下载完后自动删除就行了;
dlwlrm 小成 2025-6-26 11:33:58
@JustW 还是 wetransfer 方便
icy37785 初学 2025-6-26 11:42:51
小文件 p2p ,大文件服务器中转确实反直觉。虽然我也能理解 webrtc 传大文件没那么理解,而且特别大的文件浏览器有限制。 虽然能理解这些妥协,但是实际问题就是妥协后,会速度以及成本都比如网盘了。 速度受自己上行和服务器下行的限制,几乎是没可能比网盘快了,即使是限速后的网盘。毕竟国内服务器都是带宽太贵,国外服务器不是优化线路的话速度也慢,优化线路的话带宽也贵。 成本的话,如果想提供比网盘限速后更快的速度,需要的服务器的带宽成本是网盘 vip 的若干倍,低成本方案打不过限速后的网盘,高成本的情况打不过网盘的 vip 。 这还只是跟网盘比,真所谓的“阅后即焚”文件传输,谁也不会用网盘,而是会用 qq 之类的 im 工具,那是真的无成本还快。 感觉你这个项目本身功能没问题,但是定位有问题,文案改一下,设计一个只有小文件分发的场景,那就一切合理了。虽然暂时我还没想道特别合适的场景。
fibroblast 小成 2025-6-26 11:51:31
我也是考虑这个问题
tomclancy 初学 2025-6-26 11:53:40
开局假设我有服务器,我没服务器呢
dingdangnao 小成 2025-6-26 12:07:22
开个 oss ,写个网页就传上去了
Rendex 初学 2025-6-26 12:31:55
@sadfasdfa #1 想起来我帮实验室师兄打工标注数据的事情了,就是最后文件超了我用的分卷压缩,结果师兄不认识这种压缩文件问我是啥东西 https://i.imgur.com/ee8Lq7H.png
Oceanhime 初学 2025-6-26 12:38:46
教程用 GPT 写的吧。说白了,这就像是算法生成的“星空”——璀璨、精确,却少了点人间的烟火气。
Actrace 小成 2025-6-26 12:46:07
😊 已经有 tmp.link 了
garlics 小成 2025-6-26 12:50:53
看着还不错,可以代替 pp 直连传文件了,不过相对没那么方便。
返回顶部