点击下载42.zip(42KB)
这个压缩文件里面有16个zip压缩文件——各自里面又有16个zip压缩文件——各自里面又有16个zip压缩文件——各自里面又有16个zip压缩文件——各自里面又有16个zip压缩文件,最后,每个里面有一个4.3GB的文件。
所以,如果你解压所有的文件,很有可能你的硬盘空间会被撑爆 🙂
16 x 4294967295 = 68.719.476.720 (68GB) 16 x 68719476720 = 1.099.511.627.520 (1TB) 16 x 1099511627520 = 17.592.186.040.320 (17TB) 16 x 17592186040320 = 281.474.976.645.120 (281TB) 16 x 281474976645120 = 4.503.599.626.321.920 (4.5PB)
解压密码: 42
高大上啊.. 这个是什么原理啊? 用到什么技术或算法了啊.. 求指教..
一次解压只会解压一级,怎么撑的爆
http://junius.me/post/quora-most-compressed-file
找到了.. 用的这个算法.. 不过看到别人评论说没有意义. .不太懂.
zip根本不支持这种算法。
只要解开第一个文件看一下内容就知道了,都是重复数据。
这个怎么搞,怎么打包的怎么装进去的
应该是直接靠算法生成的
其实比较感兴趣的是这货干嘛要叫42
http://www.unforgettable.dk/
银河系漫游指南?
无聊, 楼上的还啥原理, 用脚趾头想想就知道啊。 还可以继续打包,16个42.zip压成一个,周而复始,反正都是重复的数据,多少轮下来这个包也不会增长到多少的。16,42之类的数字就是忽悠人的,随便多少都行。
程序员的数学:指数增长!!
1K * 2N次方。 这个数有多大。不说多大1T能到吧
也就是说 我可以1K的大小加上储存倍数的 大小 就能 == 1T
哇、、 世上最强。二十一世纪绝妙压缩算法已经诞生。。。
看来14年的发展,压缩算法还是进步了的。用现在的RAR软件重新压缩后,要小很多。
是不是可以这样做到?
用Linux的dd if=/dev/zero of=/filename bs=1G count=100生成个大文件,文件内容都是重复的内容,比如都是1,然后用压缩算法压缩后生成的文件应该不大,因为都是重复的数字1,最后将生成的压缩文件依次打包,得到类似这样的文件
重复数据会使文件压缩时压缩率变的非常大,比方说,文本文件是任意无规则内容和相同大小重复率非常大的文本文件进行压缩,得到的压缩文件是不同的,将文中的压缩文件打开,会看到16个压缩文件除了命名不同,其他内容上应该是相同的