46 条回复  ·  5328 次点击
BYDH 小成 2024-12-5 00:14:45
@longsays 还真别说,我觉得这张图没法直接压,因为它相较于刚扫描出来的原图,已经压得很极限了,不改变分辨率、不涂抹纹理的情况下把这张图二压到更小的体积,细节的损失绝对是不可接受的。只能说用更先进的编码器去处理尚且无损的原图,或许会比这张更好
Tiande 小成 2024-12-5 00:20:52
Windows 下推荐 XnConvert ,好用,绝绝子
hoythan 小成 2024-12-5 00:21:37
从来不相信有慈善家,你这个项目看起来没法盈利,说明这个工具没法持久。
mayli 小成 2024-12-5 06:33:37
@BYDH 有的 jpg 80%就是,当然及格是个主管概念,有些人觉得 100%也不及格 有些人觉得 75%也行。 微信压缩图片挺狠的,也没挡住它的流行
BYDH 小成 2024-12-5 09:26:15
@mayli 问题就在这里了,有的是 q=80 ,那还有的呢?一张满是纹理的图,和一张背景虚化的特写,最合适的质量参数绝对是不一样的,因为纹理一般认为不可舍弃,放大很容易看出端倪,而虚化的背景就无所谓。我认为可以做个算法,去衡量人眼会关注的局部区域(视觉显著性/边缘检测之类)相对于原图的质量损失,让程序算出一个"主观数据",反馈到输入端,用于调整 q 。给用户喂💩是厂商的行为,用户没有必要亏待自己,在算力充裕的情况下,拿时间换无脑但稳定的输出是可行的,至少应该是可选的,然而并没有这样的工具
mayli 小成 2024-12-5 10:21:18
@BYDH 我觉得是你在民科了,jpg 保留的主要就是人眼主要关注的区域,而且对于压缩后的损失算法也有大量现成的比如 ssni/vmaf 。 Jpg 的 q 就是质量参数了,你复杂图和简单色块在 q=80 的时候压缩出来的体积明显差很多。 建议民科不要没事想着做个算法,现有的工具已经足够成熟了,而且除了成熟还有效率和兼容性的权衡。 你要是觉得有损压缩是吃屎,选择无损图片就好了,png webp av1 都有,就是相对于 jpg 都是小众需求。
Serino 初学 2024-12-5 11:35:27
我用过多线程批量压缩 webp 质量最好压缩率也超高的是 pingo (带 gui 的是 pinga ) 一般我是 ./pingo -s4 -webp *.png 压缩率很高,依然保留了超级多的细节,甚至噪点细节 其次用过最满意的截图软件是 Linux 下的 Spectacle ,截取成 JPEG XL ,质量默认 90 ,也是图片很小(跟上面 pingo 压缩无损的 png ,注意不是无损压缩,是 -s4 ,质量类似,保持了超级多细节的同时,图片大小让我很满意)
ch563 初学 2024-12-5 11:41:06
这个好像也可以: https://shoteasy.fun/image-compressor/
szdev 小成 2024-12-5 12:00:24
TinyPNG 是有绝对的算法门槛的,不要小瞧这个领域,我之前找类似的开源算法,没有能达到 tiny 这么好的效果的
BYDH 小成 2024-12-5 13:01:13
@mayli #35 你说的都对,但是没有解决我的问题:用户不知道参数怎么设,jpg 的 80%、webp 的 80%、avif 的 80%,heic 的 80%,是一样的吗?你能确切地回答这个问题吗?显然不是。如果需求是把 10000 张不同的图按各种编码各压一张,要求画质保持在同一水准,即放大到 200%肉眼看不出来,怎么办?期待你能给出建设性的意见
返回顶部