Версия для печати темы
Нажмите сюда для просмотра этой темы в оригинальном формате
Форум программистов > Алгоритмы > новые алгоритмы сжатия данных


Автор: ksili 20.3.2006, 06:32
Сообщите, кто знает, какие принципиально новые алгоритмы, используемые при сжатии данных появились за последние годы. Новые - значит, не являющиеся усовершенствованием изобретённых ранее.

Я пока знаю только:
1) Преобразование Барроуза-Уилера (1994)
2) Применение вейвлетов при сжатии изображений (метод SPIHT - кажется 1996)
3) Фрактальное сжатие изображений (1990)

Чем новее, тем лучше.
Спасибо.

Автор: mostly 29.3.2006, 18:44
Вот новый алгоритм на основе хешированмя:
Hash Zip

http://freedaemonconsulting.com/tech/hzip.php

исходник:
http://freedaemonconsulting.com/drop/hzip-0.0.tar.gz

Автор: Snowy 29.3.2006, 19:05
Из сжатия без потерь принципиально нового нет.
Есть потоковые и статистические.
Тоесть семейство LZ и потомки Хаффмана.

Цитата(ksili @ 20.3.2006, 06:32 Найти цитируемый пост)
Преобразование Барроуза-Уилера (1994)
BWT это не сжатие. Это трансформация, после которой применяется сжатие (обычно потомок хаффмана).
На сегодняшний день 3 направления:
- LZ компрессия - (ZIP подобные)
- PPM (PPMD (rar, 7z), и т.п.)
- Основанные на BWT. (малоизвестные, ориентированные на текст).
Все остальное - модификации и попытки улучшения алгоритма.

Автор: ksili 30.3.2006, 03:47
Цитата

BWT это не сжатие.

Я знаю, что это не сжатие, а преобразование, после которого данные скорее всего сожмутся в какой-то степени лучше, чем до BWT. Поэтому я и написал в вопросе
Цитата

алгоритмы, используемые при сжатии данных
,
а не "алгоритмы сжатия данных".

Powered by Invision Power Board (http://www.invisionboard.com)
© Invision Power Services (http://www.invisionpower.com)