Версия для печати темы
Нажмите сюда для просмотра этой темы в оригинальном формате |
Форум программистов > Алгоритмы > новые алгоритмы сжатия данных |
Автор: ksili 20.3.2006, 06:32 |
Сообщите, кто знает, какие принципиально новые алгоритмы, используемые при сжатии данных появились за последние годы. Новые - значит, не являющиеся усовершенствованием изобретённых ранее. Я пока знаю только: 1) Преобразование Барроуза-Уилера (1994) 2) Применение вейвлетов при сжатии изображений (метод SPIHT - кажется 1996) 3) Фрактальное сжатие изображений (1990) Чем новее, тем лучше. Спасибо. |
Автор: mostly 29.3.2006, 18:44 |
Вот новый алгоритм на основе хешированмя: Hash Zip http://freedaemonconsulting.com/tech/hzip.php исходник: http://freedaemonconsulting.com/drop/hzip-0.0.tar.gz |
Автор: Snowy 29.3.2006, 19:05 |
Из сжатия без потерь принципиально нового нет. Есть потоковые и статистические. Тоесть семейство LZ и потомки Хаффмана. BWT это не сжатие. Это трансформация, после которой применяется сжатие (обычно потомок хаффмана). На сегодняшний день 3 направления: - LZ компрессия - (ZIP подобные) - PPM (PPMD (rar, 7z), и т.п.) - Основанные на BWT. (малоизвестные, ориентированные на текст). Все остальное - модификации и попытки улучшения алгоритма. |
Автор: ksili 30.3.2006, 03:47 | ||||
Я знаю, что это не сжатие, а преобразование, после которого данные скорее всего сожмутся в какой-то степени лучше, чем до BWT. Поэтому я и написал в вопросе
а не "алгоритмы сжатия данных". |