[LØST] beste komprimerings teknologi

19 innlegg i emnet

Skrevet

Hei!

Hvilken komprimerings teknologi greier og komprimere data mest? Tenker på sånt som rar, zip, 7z osv.

Lurer også på hvilket program som er best til dette :)

0

Del dette innlegget


Lenke til innlegg
Del på andre sider

Skrevet

Hei..

jeg bruker kun 7zip.. den er jo gratis :D

0

Del dette innlegget


Lenke til innlegg
Del på andre sider

Skrevet

453890.jpeg Er ikke dette litt lite komprimering?

Hadde vert fint med en guide på hvordan jeg satte opp alle instillingene i 7zip ;)

Noen som har andre meninger, evt tester? :)

0

Del dette innlegget


Lenke til innlegg
Del på andre sider

Skrevet

OT: Jasså, så du har alle filmene av Politiskolen nedlastet du ja :P  B)

Men ja, 29Mb på ei fil som er på 123919Mb originalt hørtes jo ut som en fantastisk komprimering da!

Komprimerte du ferdig og så at fila faktisk bare ble 29Mb?

0

Del dette innlegget


Lenke til innlegg
Del på andre sider

Skrevet

Virker litt upraktisk, ja :)

Er ikke dette litt lite komprimering?

Processed _ _ _ 28Mb

Compressed size 29Mb - Lager fila litt større ?

------

Et kjekt pakkeprogram fra 80-tallet tilbød seg å pakke alle filer ned til en størrelse på bare 1 byte, uavhengig hvor stor filen var. Det kunne til og med pakke hele mapper ned til 1 byte.

Ulempen var at det ikke hadde noen løsning for å pakke ut dette igjen, så du ble sittende igjen med en ubrukelig fil på 1 byte. :P

Programmet var selvfølgelig ment som fleip, men det var jo noen som gikk på fleipen også.

0

Del dette innlegget


Lenke til innlegg
Del på andre sider

Skrevet

jeg liker best winrar

0

Del dette innlegget


Lenke til innlegg
Del på andre sider

Skrevet

http://www.maximumcompression.com/index.html

Maximum Compression's goal is to show the maximum achievable data compression ratio for several filetypes (text, executable, jpeg etc). The best programs for every filetype are compared in a table indicating compression ratios and switches/options used to achieve that compression (SFC). Every program will only be listed once (with the switches yielding the highest possible compression ratio for that test/file). If you know of an (experimental) program not listed here or know of a switch combination yielding better results than the one listed please let me know!. I prefer command line (console) compression programs over GUI ones.
0

Del dette innlegget


Lenke til innlegg
Del på andre sider

Skrevet (endret)

exchange: skjønte ikke så mye av den linken din :P kan du forklare litt? evt link til det programmet som komprimerer fila mest ;)

Endret av Torstein M
0

Del dette innlegget


Lenke til innlegg
Del på andre sider

Skrevet

Jeg kikket overfladisk på linken tidligere i kveld.

Det er litt forskjell på programmene avhengig av filtyper, men noen er bedre enn andre når det gjelder kompresjon.

Disse bruker gjerne litt lengre tid fordi de komprimerer bedre, så score på effektivitet er variabel.

Jeg sjekket BMP (komprimeres mye), JPG (komprimeres lite) og "large file collection".

JPG ligner litt på videoformater i at begge er komprimert på forhånd. Ingen var særlig effektive på dette formatet. Maks kompresjon var snaue 25 prosent. Her er det stor forskjell mellom noen få i teten og de andre. Noen lager fila større.

Den mest interessante lista er hvilket program som er mest effektivt på "Large file collection". Her vinner FREEARC 0.51, men 7-zip, winzip og winrar ligger godt an de også.

BMP er ukomprimert og kan komprimeres mye. Den beste klarte 87 prosent. Det er svært liten forskjell mellom plass 1 og plass 59 på listen. Dette er en enkel oppgave som alle mestrer godt.

--------

Konklusjon:

De som er best til å pakke er fordømt trege. De må være beregnet på helt spesielle ting.

Video og JPG er lite lønnsomt å pakke. Eneste motiv for å pakke slike filer må være for å holde mange filer samlet i en fil, f.eks. hvis du skal sende dem på nettet.

0

Del dette innlegget


Lenke til innlegg
Del på andre sider

Skrevet

JPG og mp3 er jo "komprimert fra før, derfor er det omtrent verdiløst å pakke de for å komprimerer de.. Men derimot .wav bmp etc etc .. er jo "ukomprimert" så man får pakket de mye.

Jo "hardere" komprimering, jo lenger tid tar det pakke ned og opp igjen.

0

Del dette innlegget


Lenke til innlegg
Del på andre sider

Skrevet

exchange: skjønte ikke så mye av den linken din :P kan du forklare litt? evt link til det programmet som komprimerer fila mest ;)

scroll nedover på siden finner du en link til summary..der linken også har en beskrivelse..

"Summary of all single file compression tests and best overall programs."

http://www.maximumcompression.com/data/summary_sf.php

Q. Now, what is the best compression program?.

A. That depends on your definition of 'best'. Globally speaking there are three kind of compressors / archivers.

First we have the group of experimental compressors, designed with only one thing in mind, getting the best possible compression regardless the time it takes and the amount of memory it uses. Almost all programs in this group are command line (dos/win32) programs, and some of them can only compress one file at a time (remember user friendliness wasn't a real consideration). The best programs in this group, i.e. the ones getting the best possible compression, are WinRK (using PWCM mode), PAQ8, PAQAR, Durilca and SLIM. At the moment WinRK (PWCM) and PAQ8 are the two best compressors of the five, but they are also much slower then Durilca and SLIM (to give you an idea; PAQAR in -8 mode does about 5-7 KB/s on a slightly overclocked AMD Barton 2800+). If you have files with embedded images (e.g. Word DOC files) use PAQ8, it will recognize them and separately compress them, boosting compression significantly. Also note all mentioned programs with the exception of WinRK are free of cost.

Secondly we have a group which tries to combine the good compression of group one with some degree of user friendliness. Compression is still very good, speed is reasonable, but the compression formats used are often not widely spread. Best programs is this group are UHarc (with WinUHA gui) and WinRK.

The last group is the 'everyday use' archiver. This are GUI driven programs with good compression, but without sacrificing speed and without excessive memory usage like the group 1 and 2 programs. Apart from the GUI it is important the program is fast, easy to use, and supports many different archive formats (or is a standard itself). The best archivers in this group are WinRar and 7-Zip. Maybe WinZip 10 (using PPMd-mode) has a place here too.

Q. Why didn't you include program xxxxx ?

A. I try to keep the comparison benchmarks fair and transparent by only listing one single version of a program (the one with the best compression). For that reason I don't include clones of a program (like PAQ clones WinUDA, Emilcont and KGB), 'light' versions (like Durilca Light) and programs without an own compression format (like PowerArchiver, Total Commander, ZipGenius, TUGzip). If you still think I missed a program please let me know!. You can mail me (Werner Bergmans) at 'info _AT sign_ thissitename dot com' (or have a look at the front page to see this email address spelled out...). PS. Most of these clones and light versions are included in the multiple file compression (MFC) test.

Q. Why don't you add compression times?

A. As the sites' name already indicates, I'm looking for the maximum compression ratio. The time it takes is irrelevant (to me), getting the best switch combinations takes by far the most time... I agree time is useful to know if you are considering an 'every day use' compressor, but that's not what the site is about.

Apart from the fact it takes a lot of time to do all measurements there is a bigger problem. I try to find the best combination of switches to yield maximum compression (and this really can be an exotic combination for programs like 7-Zip, Durilca etc). That particular combination can lead to say 40.00% compression with a compression speed of say 20 Kb/s. A different set of switches can have 39.99% compression with a speed of 500 Kb/s. Is it fair to list this 20 Kb/s as, 99.9% of the people will not use the switches I used?. I think speed comparisions are only fair if you let the program use it's default settings. The multiple file compression test (MFC) does include (de)compression times are more 'regular' switches / options are used there.

0

Del dette innlegget


Lenke til innlegg
Del på andre sider

Skrevet

Bruker WinRAR, vet ikke om det er det beste.

Synes både GUI til WinRAR og mulighetene er det beste.

0

Del dette innlegget


Lenke til innlegg
Del på andre sider

Skrevet

Jeg bruker WinRAR jeg også, men WinZIP, 7-zip og andre er sikkert OK de også. Eneste ulempe med Winrar (gratisversjon) er en "naggin' screen" som ber deg om å bestille lisens når du åpner programmet.

De som bruker PAQ-teknologien bruker jo fra 8-17 timer på å komprimere 300Mb. Det er greit hvis du kun skal gjøre det 1 gang som en test (og aldri behøver å pakke ut igjen), men det er dårlig egnet til daglig bruk (hvis du ikke har mye fritid og "trenger noe å finne på"). Andre programmer bruker bare sekunder på samme oppgave.

0

Del dette innlegget


Lenke til innlegg
Del på andre sider

Skrevet

Pakke programmer å filmer er det ikke mye vinning i. Men dersom du pakker en MySQL database på la oss si 400 MB, så kan du få denne ned i noen få MB bare. Når det er ren åpen tekst som gjentar seg mye, er det utrolig hvor mye man kan få ned størrelsen.

Ellers egner pakkeprogrammer seg fint til å lage en fil av mange, dersom du skal sende til noen eller lignende :)

0

Del dette innlegget


Lenke til innlegg
Del på andre sider

Skrevet (endret)

Dette er en generell misforståelse. Det finnes ikke en optimal komprimering.

1. 70 tidlig 80 tall.

Man hadde funnet de optimale måten å tilordne bits til en inkommende strøm med data så problemet var løst. Den bokstaven som var mest sannsynlig brukte færrest antall bits. Dette ble kalt huffman kodiing og ble undervist som den optimale løsning.

2. Tampen av 70 tall til midten av 80 tall.

Lempel og Ziw publiserte en alternativ måte å tenke på basert på at man hadde tekst som input. Denne ble etterhvert implementert i pkzip som av en eller annen grunn ble verdens mest kopierte program da den var veldig mye mer effektiv en unix pack som baserte seg på huffman.

I mellomtiden fant noen ut at det at huffman hele tiden kastet bort hele bits til de forskjellige tegnene var bortkastet space. Hva om komprimeringsresultatet i stedenfor er et enormt flyttall som representerer sannsynligheten for at jeg får akkurat denne meldingen? Dette ble kalt aritmetisk koding og er faktisk en del av JPEG specen, men ble aldri implementert ordentlig da IBM hadde vært inne på noen tilsvarende tanker kalt q-coding og naturligvis patentert dem. Det er mulig at de er good guys nå men de var det i allefall ikke da.

3. midten av 80 tall til starten av 90 tall.

Med ideene rundt aritmetisk koding er det en fundamental ting man umiddelbart bør tenke videre på. Hvis man kan si at en optimal koding er sannsynligheten for at jeg får akkurat denne meldingen, kan jeg ikke forbedre dette hvis jeg vet noe om meldingen fra før? Forskere og hobbyhackere ( i den positive meningen av ordet) tenkte mye på dette.

Ett eksempel på dette er 'run length encoding' for bilder som passet bra på 80-tallet da vi tegnet bildene våre sjøl. Når du tegner vil det gjerne være store flater med samme farge så i stedenfor å kode 80 pixels med blå himmel lagrer du 80 og blå.

4. The swinging 90's

Plutselig tok internett av. I starten var det tekst og binærfiler som kunne overføres, men så var det disse bildene da. Tegnede bilder var greit nok. Fotografier ble jævlig store eller hadde så få pixler at du måtte myse for å se hva det gjaldt. Gode råd var dyre da en haug med forsøk på proprietære løsninger begynte å dukke opp. Vi fikk da JPEG standarden som deler bildet opp i 8x8 pixler og benytter at en slik blokk normalt ikke vil ha enkeltpixler som skiller seg drastisk ut, samtidig som nabopixler normalt vil ha i området de samme verdiene. Deretter begynner man å tenke litt fysikk. JPEG deler bildet opp i 8x8 pixler. Se for deg at pixlene i et område utgjør en samling energi som ditt øye detekterer og tolker. Man kjører så en Digital Cosinus Transform som er en kusine av Fourier Transform for å få en serie med parametre til en funskjson som vil kunne gjenskape de 64 pixlene. Normalt vil denne resultere ganske få verdier som vil gi et bra komprimeringspotensial. Dette fordi pixlene innen et område vil ha stort samsvar i energimengde. I tillegg kan man velge grad av kompresjon som egentlig bestemmer i hvilken grad man bruker alle verdiene. Det dekomprimerte resultatet vil ha omtrent samme energiinnhold fordelt på omtrent samme måte. Går man bananas med å fjerne parametre vil bildet bli annerledes men går man ikke amok merker ikke det menneskelige øye noen forskjell.

5: Og så kom vi til 20

Tilsvarende standarder som JPEG ble så etterhvert laget for filmer. Du får da inn faktorer som forskjell i denne frame i forhold til forrige osv men prinsippet er hele tiden det samme. Du bruker alt du vet om filen du vil komprimere for det du kan.

Ett eksempel er mp3. I prinsippet kan du komprimere lyd ved å simulere en lydbølge med hele tiden ha en bit som sier at neste verdi er høyere eller lavere. Da får du sinnsykt god komprimering og en utrolig skurrende lyd. MP3 bruker derfor masse ekstra kunnskaper om lyd for å kunne redusere en lydfil på cd på 80Mb til kanskje 1Mb uten at øret ditt ikke merker den store forskjellel

Moralen er egentlig at du må vite hva du ønsker å komprimere.

Hvis du vil beholde orginalen er det hipp som happ om du bruker winzip / winrar osv.

Hvis du er villig til å tape kvalitet i forhold til plass er det en mengde formater for bilde lyd og film. 'PEG' standardene er greie men det finnes nok av andre så se på hva du vil komprimere og sjekk spesifikt på denne typen filer for å finne hvilket format som passer.

Endret av Oddvar Voll
0

Del dette innlegget


Lenke til innlegg
Del på andre sider

Skrevet

Prøv å åpne notepad og lag en del 0'er. Kopier disse, lim inn en del ganger, kopier på nytt. Fortsett til du har supermange, og lagre dokumentet. Prøv å oppnå et dokument med litt størrelse, 50 mb eller så. Forsøk så å komprimere det med et program, og sjekk størrelsen nå! Dokumentet er så klart på noen få kilobyte.

Prøv så å lime inn masse tilfeldige tegn og gjenta forsøket. Nå tar filen fortsatt en del plass, logisk nok.

0

Del dette innlegget


Lenke til innlegg
Del på andre sider

Skrevet

Tror jeg må konkludere med det som Oddvar voll sier. Prøvde med en ekspredimentell teknologi som fikk det god plass på linken til exchange, men den tok 90 timer for og komprimere 120gb menst Winrar tok 18 timer. I tillegg tok winrar 119gb når den var ferdig. nanoZip (som programmet het) tok 116gb. Så winrar blir nok det programmet som jeg synest er best. :) tusen takk for svar alle sammen :thumbs:

0

Del dette innlegget


Lenke til innlegg
Del på andre sider

Skrevet

For de som vil ha en god oversikt, her er en test av WinZip, WinRAR, IZArc, 7zip og Vista.

http://www.dinside.no/792103/test-populaer...akke-programmer

Forresten, gratisprogrammet 7zip ble best i test!

0

Del dette innlegget


Lenke til innlegg
Del på andre sider

Skrevet

Grafene som journalisten bruker er temmelig misvisende ? Han ble også kritisert for dette i kommentarene. Grafene starter ikke på 0, men på et ukjent nivå som bare journalisten vet om. Presentert i en artikkel gir dette et misvisende inntrykk. Han burde ihvertfall opplyst om at "grafene er manipulert for å vise forskjeller".

I grafen som viser "kompresjon av diverse filer", så ser det ut som at 7-zip er dobbelt så bra som røkla, men de reelle verdiene er 33,8 mot 34,1.

Det betyr at y-aksen i grafen har et brudd, slik at det som ser ut som 0-verdien i virkeligheten er ca 33,5. Å tegne en slik graf uten særs tydelig å vise bruddet, får vi håpe at ikke er gjort i ond tro - det kan i beste fall skyldes totalt fravær av forståelse hos journalisten.

Testmetoden er også litt "merkelig". Ingen av dem forsøker vel egentlig å PAKKE mediefiler ? Filene blir vel bare LAGRET slik de er i en pakke ? Jeg fatter ikke hvorfor han har inkludert mediefiler i en slik test. Alle hadde likt der, og det burde han jo visst på forhånd også? Det kom ikke som noen overraskelse på oss andre at ALLE klarte å pakke disse filene fra 155 til 153 MB (besparelsen kommer ikke av pakking, men av at 37 filer lagres i 1 større fil)

Jeg har ikke sans for artikler som prøver å villede meg. I andre tester har WinZip, 7-zip og Winrar kommet ut omtrent likt, men programmene kan gjøre det bedre på hvert sitt område. Forskjellene var så små på "vanlig bruk" at de var relativt uinteressante. Jeg pleier å linke til alle 3 og la folk velge selv, hvis noen spør om pakkeprogrammer.

------

Dette minner mer om metoder vi finner i reklame og ikke i seriøse artikler. Pakkeprogrammer er vel egentlig ikke denne journalistens "hjemmebane" ?

0

Del dette innlegget


Lenke til innlegg
Del på andre sider

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!


Start en konto

Logg inn

Har du allerede en konto? Logg inn her.


Logg inn nå

  • Hvem er aktive   0 medlemmer

    Ingen innloggede medlemmer aktive