- PC för Alla:

Den digitala utvecklingens
baksida - 4 otäcka scenarion

martin appel

- PC för Alla:

Efter domen: "Dags
att skrota tv-licensen"

fredrik agrén

- PC för Alla:

"Är du en
säkerhetsrisk?"

Artikelkommentarer

Mer info om hur du kommenterar och kommer åt dina gamla kommentarer hittar du på vår FAQ: idg.se/faq

Kommentatorn ansvarar själv fö;r sina inlägg. Inlägg som innehåller diskriminerande uttalanden, personliga påhopp eller språk som kan uppfattas som stötande, kommer att tas bort av tjänstgörande redaktör. Även poänglösa datorkrigsinlägg tas bort.

OBS! Läs dessa regler som gäller vid postning av inlägg.

Regler för inlägg i artikelforumet

Kommentatorn ansvarar själv för sina inlägg. Inlägg som innehåller diskriminerande uttalanden, personliga påhopp eller språk som kan uppfattas som stötande, kommer att tas bort av tjänstgörande redaktör. Även datorkrigsinlägg och inlägg som är utanför ämnet, kan tas bort.

IDG förbehåller sig dessutom rätten att i varje enskilt fall bedöma huruvida ett inlägg ska tas bort, även om det inte faller under någon av reglerna ovan.

Upprepat postande av olämpliga inlägg kan medföra avstängning från artikelforumen.

Frågor? Mejla till redaktören, carl.grape@idg.se.

Läs mer om vår policy i diskussionsforum

Kommentarer till:

Så får du en snabbare hårddisk

En mer tid än pengar lösning

2012-11-11 09:40

Visst är det bra med prestandaoptimering. I 20-års tid har datorer varit helt kass på sina uppstart tider. Testade för ca 15 år sedan att stoppa HELA windows-installationen i fast minne (då pratar vi om fantasipriser per MB) och det blev fantastiskt snabbt. Uppdateringar och vanliga fix & trix blev naturligtvis besvärliga och krävde nyinstallation igen. Först idag med SSD-tekniken har örnen landat. Det är inte första och tyvärr inte sista gången som teknikutvecklingen tar en extremt massa år på sig från att det är möjligt, tills det blivit en massprodukt.

OwnerX

Fel

2012-11-11 11:09

Datorer har inte varit kass under 20 års tid. UNIX hade hantering så att skrivhuvudet flyttades minimalt redan i början av 1980-talet (BSD UNIX).

Du får skriva att Windows har varit dåligt (+ är)!!!

Jag har flera OS på mina maskiner, och Windows är alltid rejält långsammast.

Sedan är inte allt bra med en SSD. Det är problem vilka block man skriver och hela rader av celler måste raderas. Googla på TRIM.

För övrigt är det ett tecken på att OS-et är dåligt om man manuellt skall ta till sådana saker som partitionering. Det är jobbigt med system som erbjuder en massa drivebokstäver. Det skall vara poolbaserat. Googla på ZFS. Fusion Drive (som inte är en hybriddisk) är en annan trevlig lösning. OS-et optimerar av sig själv.

Sedan vill jag varna de som ändå kör Windows. Gör C: rejält stor. Den genuina Microsoft tekniken WINSXS ser till att Windows-katalogen blir gigantisk stor efter ett tag.
Alla andra OS har sk. delada bibliotek. Flera program delar på gemensamma rutiner och funktioner. Detta funkar inte i Windows. Med WINSXS ser Windows till att alla olika program har var sin uppsättning DLL-filer. Alltså stick i stäv med vad DLL skulle lösa. Windows 8 är nog optimerat och Windows 7 lite optimerat med avseende på detta. Men Vista (där det kom) är hemskt ooptimalt.

*???*??

Fel

2012-11-11 11:44

Prova Windows 8 då om du tycker det är så jobbigt och ändå är beroende av Windows. 5 sek för att starta på mekaniskt disk kan inte vara dåligt optimerat. Problemet märks knappast av efter Vista då all optimering automatiserats.

True story

Fel

2012-11-11 11:57

5 sek låter snarast som start från något standbyläge och inte från någon ren nystart. Hoppas innebörden gick fram.

OwnerX

Fel

2012-11-11 14:15

Nu råkar det vara en ren kallstart så att säga, prova själv annars. Mekanisk hårddisk 7200rpm, de flesta är väl på 5400rpm och på en sådan går det sannolikt långsammare.

True story

Fel

2012-11-11 16:44

Något systemfel är det hos MS om de plötsligt efter alla dessa år kan få ner kallstarttiderna till 5 sek. Långa starttider på windows har funnits i 20 år och klagomålen lika länge utan att de brytt sig. Synd att det inte gäller win 7 för de lär inte få med sig alla till 8:an.

OwnerX

Fel

2012-11-11 16:51

Du kan inte sluta vara negativ, eller hur? :)

Vad Microsoft gjort med Windows 8 är helt enkelt att skapa en hybridstart. där kärnan laddas i en fil, typ som att starta upp datorn från hibernate. Kärndelen behöver bara ändras om du gör några systemförändringar, vilket du inte ska göra med datorn avstängd ändå. Den kan så klart återgå till att läsa in varje fil och tjänst individuellt om det behövs. Då tar det så klart lika lång tid att starta som äldre Widnowsversioner.

hans.pedersen

Fel

2012-11-12 07:42

Om det du beskriver gör att Windows startar snabbare så är det något fundamentalt problem i botten.

Att starta från hibernering ska inte gå snabbare än en traditionell kallstart. Det är inte mindre jobb att läsa in en stor fil än att läsa in kärna, drivrutin och tjänster separat.

falde

Fel

2012-11-12 12:49

Du kan tycka vad du vill om det men det är så det fungerar. Du har också en speciell shutdown för att kunna utnyttja "fast boot" som förbereder så att det går snabbare vid uppstart.

Det fungerar inte så som du tror att man läser in en stor fil med samma info som du annars läser in vid normal boot separat. Om det nu är det du tror, svårt för mig att gissa eftersom jag inte har ditt felaktiga tankesätt men det är så jag tolkar ditt inlägg. Oavsett så har dina invändningar ingenting med verkligheten att göra och uppenbarligen startar datorn snabbare så hur du tycker eller tror att det ska fungera är irrelevant.

Kanske du ska läsa på lite? Förslagsvis googlar du "fast boot".

Bit

Fel

2012-11-11 18:32

Varför argumentera emot något utan att först prova själv?

Windows 8 startar sjukt mycket snabbare från kallt system jämfört med tidigare versioner, här är också lite av anledningen att man vill ha UEFI och nyare BIOS-varianter för nu tar BIOS POST längre tid än windowsuppstarten ändå in till skrivbordet (nåja, startskärmen)... :)

Oskar Duveborn

Fel

2012-11-12 02:36

Jag argumenterar inte emot, utan har accepterat True Story:s 5 sek om du läser ovan och då finns det ingen anledning att bränna tid på att prova själv. Att sedan historisk fakta är som den är, - är bara acceptera. Om det nu verkligen är 5 sek så kvarstår också frågan varför MS ej gjort något tidigare. Ser inget konstigt i det och behöver inte försvara varken det ena eller andra systemet.

OwnerX

Fel

2012-11-12 08:35

UEFI gör en hel del som Bootloadern tidigare fick lägga ner massor med tid på så där finns en av anledningarna. Gäller dessa fem sekunder även ifall man gör kall uppstart med traditionell BIOS?

Varför har Microsoft inte gjort något tidigare? De har såklart prioriterat annat som varit mer efterfrågat av storkunderna.

Här är iaf åtgärderna som behöver göras:

1. Snabbare firmware, löst med UEFI
2. Snabbare initiering av hårdvara. Delvis löst med UEFI, samt förbättringar av hårdvaran. Ut med IDE, USB < 3 och andra tekniker som är krävande att initiera.
3. Parallellisering av laddande av drivrutiner och tjänster. Det innefattar att man har ett bra stöd för SMP rakt igenom i systemet.
4. Snabb laddning av ovanstående. Här har de flesta valt att optimera sina filsystem, medan Microsoft har valt ett fulhack i form av att använda en hibernate-liknande teknik.

Problemet som jag ser med punkt fyra är att det bara är uppstarten som vinner på det. En optimering av filsystemet hade lett till prestandavinster även efter uppstarten, där det för de flesta användarna är viktigare...

Det leder oss in på den här artikelns innehåll. En optimering av hur Windows filsystemarkitektur fungerar hade både lett till samma prestandaförbättringar som de artikeln beskriver och en snabbare uppstart.

falde

Fel

2012-11-12 23:03

Har stationär dator I7 cpu, 32gb ram, en 7200rpm disk, os windows 7 en coold boot tar ca 25 sekunder, köra på samma partion, Office home 2010, Gimp, 7Zip, IE 9, SWOR, ANO2070, Adobe Premier Element & PhotoShop elements 8, och lite annat, med en SAMSUNG SSD 256Gb disk tar det ca 10-12 sekunder ,,,

dnox

Fel

2012-11-12 23:58

På testsystemet jag använde tog Win7 över 1 min att starta. Win8 lär gå väldigt snabbt på ditt system som jämförelse kan jag tänka mig. Har även provat Win8 på en laptop med 520MB/s SSD och fick en starttid på 0.5 sekunder, är din ssd tillräckligt snabb kan du nog få liknade resultat :)

True story

Fel

2012-11-13 22:11

Ursäkta? Från att du trycker på startknappen på en helt avstängd dator, till att den startat så tar det 0,5 sekunder?

star-affinity

Fel

2012-11-14 15:49

Japp, detta förutsätter naturligtvis att du har en SSD med läshastigheter på omkring 550MB/s, bootar Win8 från en virtuell disk på ssd´n samt att installationen är helt ny och ren och att datorn har bra prestanda, till exempel: Intel core i7, 4-8GB ram @1333-1600Mh. Bios/Uefi räknas bort då det inte är en del av operativsystemet, starttiden för den ligger ändå på ca 1s på testsystemet oavsett operativsystem.

True story

Fel

2012-11-15 06:37

nice, ska nog köpa windows 8 uppgraderingen fick erbjudande från MS på 139:- eller om det var 239:-

dnox

Fel

2012-11-11 11:59

på 90 talet satte jag systemet på en ram skiva. Vilket var enkelt på macarna eftersom dessa inte raderades vid en omstart. Eller vid vila. Strömavbrott och man fick kopiera systemet till ramskivan igen.

Men sjutsingen vad det gick undan. Och frånskillt windows och unix gick det att drag n drop systemet från en skiva till en annan. Och enkelt välja start skiva efterbehov.

Stora delar av gamla macos var skrivet i assembler. Så undan gick det.

Juan_

Fel

2012-11-11 14:17

Ja antagligen, dock ser jag inte varför ett språk som C skulle vara så mycket långsammare, det är trotts allt framtaget för att vara snabbt och effektivt och till skillnad från asembler slipper man uppfinna hjulet igen, kanske därför dagens os bygger på C och liknande.

True story

Fel

2012-11-11 14:41

Mac OS var skrivet främst i pascal. Men 1984 var inte det alltid tillräckligt snabbt.

Quickdraw är rätt tufft att vara skrivet i assembler.

http://www.computerhistory.org/atchm/macpaint-and-quickdraw-source-code/

Juan_

Fel

2012-11-12 01:49

Handoptimerad assemblerkod som optimeras när klockcycler räknas var betydligt mer effektivt framför allt på Motorola 68xxx tiden..

Leifi Jansson

Fel

2012-11-12 23:49

Ja förr kunde man göra stora prestandavinster, idag har det egentligen inte så stor betydelse eftersom språk på en högre nivå går betydligt fortare att skapa det mesta med än assembler utan att vara speciellt mycket långsammare.

True story

Fel

2012-11-11 21:06

Mmm, systemen var ju ganska små också på den tiden. Det av AmigaOS som inte fanns i ROM lade jag in i en RAD-disk (bootbar ramdisk som överlevde reset) och då tog det ju bara några sekunder att starta om datorn - vilket man tyvärr behövde ibland eftersom en del program kraschade och med otur sänkte operativsystemet. (Amigan hade, precis som de flesta andra ickeserver-OS på den tiden, inte minnesskydd - så RAD-disken sparade man såklart inget viktigt på).

Tycker hur som helst att det var en bra artikel, men kortfattat kan det ju reduceras till att ha OS-partitioner som inte är för stora samt att de bör ligga som första partition (ev. liten bootpartition undantaget).

Vid sorgligt långsamma hårddiskar kan man dessutom tänka sig att om man använder filsystemets komprimering så får man en högre hastighet (på filer som lämpas för komprimering). Ungefär som att man på floppytiden i stort sett alltid tjänade på att packa programmen med någon lämplig cruncher. Vill minnas att Powerpacker var bra.

mktst

Fel

2012-11-13 07:03

Fast-boot är ju en hybridstart med hybernering. Hur väl funkar det med ett operativsystem som är så beroende av omstart? Kommer inte det i lägnde leda till ännu mera besynnerliga beteenden från operativsystemet? Varför går det att stänga av?

lessonae

Fel

2012-11-13 19:27

Har kört RTM versionen sedan lanseringen i augusti och hittills inga problem, krav på omstarter är också i princip obefintliga. 2 - 3 uppdateringar från augusti till idag som kräver omstart från alla system. På vilket sätt skulle det bli problem menar du? På testsystemet har det dessutom blivit minst en kallstart per dag då jag vanligtvis stänger av datorerna på nätterna.

True story

Fel

2012-11-11 11:54

Man brukar ju säga att dålig information ska mötas med bättre.

Det artikelförfattaren har totalbommmat är ett inbyggt kommando som heter defrag. I synnerhet dess -b flagga.

Denna funktion stuvar just om filerna efter uppstartsbehovet. Funktionen är inbyggd i windows och körs när sytemet är vilande.

Zfs är ett filsystem som man lägger på partitioner så även i det fallet har man partitionering i botten. I grunden handlar detta om hur X86 arkitekturen är gjord så vill man slippa partioneringshanteringen så får man välja något annat än Intel och intelkompatibel HW.

Vill du undvika enhetsbokstäver i Windows så kan du ha en enda som då motsvarar / och sen använda mountpoints för resten. Funktionen kom -99 med windows 2000.

En annan rätt okänd funktion i windows är mjuka och hårda länkar. Faktum är att dessa funktioner har funnits med sen NT3.5 från 95 om jag minns rätt.

Sen är du rätt rolig när du hävdar att man inte använder gemensamma bibliotek i windows. Antingen är du ett troll eller enbart okunnig.
DU får gärna visa hur MS får en tredjepartsutvecklare att skriva om hela dotnet framework varje gång de skapar en app.

Om du däremot hade sagt som det är att tredjepartsutvecklarna är dåliga på att utnyttja befintliga funktioner och iställer skriver sina egna så hade det varit lite mer trovärdigt.
En av de största syndarna heter Adobe. De lyckas tom skapa filer med exakt samma namn och placering men med olika funktioner så att deras egna produkter inte går att köra på samma dator.

Den vanligaste anledningen till att windowskatalogen växer är att du installerar patchar med avinstallationsmöjligheten på. Då skapas ju en extra kopia på allt vad patcharna påverkar varje gång. Detta tar rätt mycket disk

Mats 42

Fel

2012-11-11 12:09

Jag ber om att låna din första mening, - den borde fler följa i de flesta sammanhang.

OwnerX

Fel

2012-11-11 18:05

Varsegod.
Till skillnad från Pirate Pontén så kräver jag itne 10 miljarder i avgift :)

Mats 42

Fel

2012-11-12 13:59

Hörruduru, "itne" är min patenterade felstavning! Betala genast in 1528kr +moms på bankgiro 3364-2744 och håll även koll i fortsättningen och betala varje gång du använder stavningen.

Perb123

Fel

2012-11-12 15:42

Jävlar vad skuldsatt jag vore om jag var tvungen att betala för felstavningen "itne". Det är nog mitt vanligaste typo.

Tur så har ditt patent inte godkänts här. ;)

Kim Westerlund

Fel

2012-11-12 16:04

Ja, tror "itne" ligger i topp på min lista också, tätt följd av "kaknse".

Perb123

Fel

2012-11-11 12:49

Han har _lite_ rätt om Windows Side by Side. WinSxS kan växa en bra bit. Dock är det oftast backup katalogen i WinSxS som växer sig stor. Vad sedan Side by Side gör är att spara alla versioner av DLL'er, baserat på både versions information och hash värde om jag inte har fel, av en DLL fil. Så typska problem som man hade på windows 95-98 med olika versioner av VBRun.DLL är borta tack vare side by side. Linux har mig veterligen inte en teknisk lösning till detta. Utan en halvmanuell där packagemanagers uppgraderar komponenter i flera applikationer och repository underhållarna måsta då ha koll på dessa beroenden istället för att splitta på delningen så att applikationer kan köras side by side med beroende till olika versioner av samma bibliotek. Se det som applikationsstabilitet kontra diskutrymme, jag vet vad jag väljer. Dependency hell var ju vansinnigt på linux förr nu är det bättre, men problemet är ju dock inte borta.

Neptune

Fel

2012-11-11 19:52

En liten rättelse bara. ZFS är både filsysem och volymhanterare. Jag skulle definitivt inte partitionera under ZFS. Man skapar en så kallad ZPOOL av fysiska diskar. Visst går det att använda traditionell HW-raid under zfs men detta är inte rekommenderat.

data_integrity

Fel

2012-11-11 23:07

Visste till och med jag som vanlig tekniskt okunnig macanvändare ;p

Juan_

Fel

2012-11-11 23:09

Och vad ligger under Zpoolen. Jo en helt vanlig partionstabell.

Ska Bios kunna boota så krävs liksom en MBR (ja om vi skippar UEFI)

Mats 42

Fel

2012-11-12 08:08

Jo det har du rätt i. Då förstår jag vad du menar.

data_integrity

Fel

2012-11-12 08:49

Så. En disk är inte automatiskt partitionerad för att man har en partitionstabell och en MBR.

"Disk partitioning is the act of dividing a hard disk drive into multiple logical storage units referred to as partitions, to treat one physical disk drive as if it were multiple disks."

Varken ZFS eller BtrFS ska partitioneras utan tappar prestanda ifall man spänner dem över flera partitioner.

falde

Fel

2012-11-12 11:59

Det har du ju så rätt i, men det förklarar ju lite bättre vad Mats42 menar.

data_integrity

Artikeln i en mening:

2012-11-11 09:57

"Använd som mest första hälften av hårddisken till systempartition."

Javisst, det blir inte exakt som att man mätt med ett analysverktyg, men som en tumregel räcker det gott och väl.

kommentatorn

Artikeln i en mening:

2012-11-11 16:39

Jo, det är åtminstone sedan Vista rätt besvärligt att manuellt tweaka prestandan genom att pilla med partitioner, placering av systemfiler och mappar. Windows gör allt sånt på egen hand, och det kan lätt få en negativ effekt om man gör något som inte Windows hade med i beräkningarna. Jag kommer ihåg att jag pillade med ordningsföljd på partitioner för att hitta bäst prestanda, som att lägga en partition för växlingsfilen först, t.ex. Men sedan Vista insåg jag att det egentligen inte var någon idé att pilla med allt sånt. Windows defragmenterade allt rätt snabbt, även på en rätt full hårddisk, och hanterade storlek på växlingsfilen mycket bättre. Det enda man egentligen behövde hålla kolla på för optimal prestanda var att låta tillräckligt många procent av disken vara ledig, så att den automatiska defragmenteringen hade tillräckligt spelutrymme själv.

Det var tider det, innan SSD. Numera ligger diskanvändingen uppe på det röda fältet nästan konstant. :)

hans.pedersen

Artikeln i en mening:

2012-11-11 21:12

På lågminnessystem (som jag i stort sett hade från år 1999-2006) kunde man tjäna enormt på att lägga växlingsfilen på en annan disk än systemdisken, tror det fortfarande kan vara en vits att göra det idag om man har två fysiska diskar i maskinen, även om vinsten idag nog oftast är mindre.

När SSD-diskar numera är så billiga (sett till prestanda) som idag är det svårt att i en stationär inte använda sådan som systemdisk.

mktst

Artikeln i en mening:

2012-11-11 22:03

Jo, fast ett stort motargument till att partitionera en roterande disk och lägga växlingsfilen på en separat partition är att den hamnar fysiskt långt borta från övrig data, speciellt om den disken är relativt tom. Om operativsystemet klarar att hålla växlingsfilen någorlunda ofragmenterad (i högst ett par-tre separata filer), så lönar det sig mer att låta den ligga på samma partition som övrig data, eftersom accesstiden troligen minskar då), speciellt med dagens diskar som snurrar i 7-15000 var per minut.

hans.pedersen

Artikeln i en mening:

2012-11-12 08:56

Nej. Att den hamnar långt borta från annan data är irrelevant. Var på disken den ligger spelar mer roll så att ha en swap-partition som första partition ökar prestanda. Även att ha den längre bak ökar prestanda jämfört med att ha den samma partition som övrig data. Jag kan inte svara på exakt varför men jag har gjort omfattande mätningar av hur swap påverkar systemets prestanda.

Observera dock att BtrFS innehåller kod som optimerar lagringen av swap, så just där stämmer det att det är lika snabbt att ha swappen i ordinarie filsystem. Men jag har inte testat detta ännu, då BtrFS är långt från färdigt för driftsättning.

I övrigt är SSD betydligt lämpligare för swap...

falde

Artikeln i en mening:

2012-11-12 09:26

Förlåt OT. Men falde, tror du på BtrFS? Tycker det verkar yxigt jmf med ZFS. Framför allt snapshots. Men har kanske inte lagt tillräcklig tid på att testa det.

RandomTask

Artikeln i en mening:

2012-11-12 09:29

Det som fungerar i BtrFS tycker jag fungerar rätt bra, men det är ju fortfarande under utveckling. Någon ordentlig utvärdering gör jag inte innan det har blivit stabilt.

falde

Artikeln i en mening:

2012-11-12 11:23

Klokt. Tack.

RandomTask

Artikeln i en mening:

2012-11-13 21:36

Jag var på väg att ställa mig just den frågan eftersom förfarandet i artikeln verkade aningen överambitiöst. Rent intiutivt har jag alltid gått på att systempartionen får vara max 50%, men oftast är den mindre än så.

iPatsa

Accesstid.

2012-11-11 11:01

Det man vinner mest på med short stroking är accesstid. Den blir mindre ju kortare sträcka huvudet behöver röra sig.
Detta fortsätter att förbättras långt efter att man inte längre får högre överföringshastighet.
Det kan alltså löna sig att t.ex. sätta upp ett RAID-set med stora diskar och sen bara använda några procent av ytan.
Ju högre rotationshastighet skivorna har, desto mer kan man tjäna på extrem short stroking eftersom huvudförflyttningen är en större procentuell del av den totala accesstiden.

Man kan ju faktiskt utnyttja resten också. Sätt upp en volym på resten och använd detta till arkivlagring som inte används så ofta.

Ztrobe

Accesstid.

2012-11-11 11:14

rotationshastigheten påverkar tiden att vänta när huvudet är på plats (rätt spår). Short stroking är att få ned flyttning av huvudet mellan spår.

Antag att ett block ligger på sektor 5. Nästa block ligger 33 spår bort. När man flyttat sig dit har skivan roterat några sektorer. Säg till nr 8. Då är det smart att lägga nästa filblock på just sektor 8. Detta gjorde BSD UNIX redan i början av 1980-talet.

*???*??

Accesstid.

2012-11-12 10:11

Novell hade elevator seeking på 80-talet också.

falde

(Inlägget är borttaget av moderator)

2012-11-11 11:15


(Inlägget är borttaget av moderator)

2012-11-11 11:25


Snabbare

2012-11-11 11:47

Det kan blir lite snabbare om disken är väldigt fragmenterad. Då talar vi om upp emot 20% eller värre vilket det tar många år av användning och avstängd automatiserad optimering att råka ut för. Detta kan man lika gärna göra med de inbyggda verktygen automatiskt.

True story

SSD defragg..

2012-11-11 14:52

En fundering på om man kan få SSD diskar snabbare är om man behöver defragmentera SSD diskar..
Inte explicit för att det går snabbare att hämta ex viss sektor utan snarare för att se till så att filsystemet mår bra..

Inte heller att man skall defragmentera lika ofta utan kanske var 6 månad för att städa upp i filsystemet..

Min egen erfarenhet är att det på en Win7 maskin med TRIM aktiverat faktiskt kan göra stor skillnad. Från att blinka en hel del på disklampan vid uppstart blinkar det knappt alls och jag gissar att tiden beror mer på
att upptäcka hårdvara änpå att boota OS'et..
Maskinen är bara kanske 10 sekunder långsammare vid kallstart än vid standby..

Vad jag gissar händer är att många små diskaccesser även om dom är snabba ökar på den tid det tar att hämta alla småfragment i de fragmenterade filerna..
Notera att filsystemet fortfarande inte är speciellt bra när saker är fragmenterade även om det blir otroligt mycket snabbare med SSD..

Jag har letat efter information om detta men det finns liksom inte..

Kommentera gärna..;-)

Vanuda Ericsson

SSD defragg..

2012-11-11 16:44

Windows tillåtet inte degragmentering av SSD så vitt jag vet. Det tillför mindre än det sliter ut och skadar SSD:n. Om du kollar efter, så är det enda som händer om du klickar defragmentera på en SSD att den kollar att TRIM-informationen är uppdaterad.

hans.pedersen

SSD defragg..

2012-11-11 20:11

Nu kanske man skall använda något annat program för defrag.. Men oavsett..
Jag håller med om att den inbyggda ( och de flesta andra defraggers har en spärr mot att defragmentera SSD's )

Låt säga att man har en SSD disk som oftast är relativt full.. Låt säga kanske 90% vilket inte är ovanligt..

Nya skrivningar kommer då automatiskt antagligen roteras över de sista 10% av disken.. Dvs dessa 10% kommer hela tiden kraftigt att utnyttjas..
Att då nån gång eller 2 per år skriva om data så att det skrivs i celler som används mycket kanske kan vara en god ide..

Jag har letat efter information ifall en SSD periodiskt flyttar runt det data som finns på den men jag har inte explicit sett nåt om detta.. ( givetvis ifall man hamnar i ett block som ändå skrivs om så är det förmodligen som så att man snurrar runt på data inom det som anses vara "ledigt"..

Och skulle den flytta runt på det data som är "fast" i tex OS och datafiler så skulle ju detta också slita på disken..

Notera att jag också sett prestanda förbättring när jag defragmenterat.. Troligtvis inte pga att filerna ligger sekventiellt på SSD'n för det gör dom med största sannolikhet inte om man inte kan resetta den helt och hållet..

Däremot så vad jag mer är ute efter städa upp filsystemet.. Och oavsett SSD så har inte NTFS bättre förmåga att hantera fragmentering..

Men om nån har nån info om hur SSD'n eg gör eller om det finns skillnader mellan olika SSD's i hur dom hanterar detta så är det alltid intressant att veta..;-)

Vanuda Ericsson

SSD defragg..

2012-11-11 21:49

TRIM beskrivs rätt bra här:

http://thessdreview.com/daily-news/latest-buzz/garbage-collection-and-trim-in-ssds-explained-an-ssd-primer/

Andledningen till att det behöver hanteras direkt av kontroller och drivrutin beror främst på hur NAND-tekniken fungerar. TRIM försöker sprida slitage för att förhindra det du beskriver, att om man konstant kör med 10% ledigt, så försöker TRIM att flytta det utrymmet runt på disken. Generellt sett är TRIM något som körs helt i bakgrunden och hanteras av kontroller och drivrutin. Windows 8 kan dock aktivt tala om för TRIM-kontrollern vilken data som är temporär och därför troligen inte kommer finnas kvar "permanent", det hjälper TRIM-processen att lättare kunna fördel slitaget ytterligare.

Att slänga in en mjukvara ovanpå som defragmenterar på egen hand är nog inte så praktiskt, det är ju TRIM:s jobb att sköta.

Lite mer om NTFS i Windows 8 och TRIM:

http://www.snia.org/sites/default/files2/SDC2011/presentations/monday/NealChristiansen_Win8FileSystemPerformance.pdf

hans.pedersen

SSD defragg..

2012-11-11 23:20

Läste igenom och som jag förstår det så är data som är skrivet skrivet och flyttas inte runt..

Om inte man råkar ligga i ett block som berörs av ett TRIM kommando..

Sen kan OS tala om via TRIM att berörda block skall raderas vilket man normalt inte behöver göra på en vanlig hårddisk..

Dvs om man inte läser och återskriver data ( läs OS filer eller annat statiskt data ) så kommer dom alltid att ligga orörda i flashen..

Sen kan det givetvis vara så att disken/controllern internt har ett eget uppdrag att snurra runt data.. Men jag kunde inte explicit hitta nåt om att så var fallet..
Och givetvis.. Det kan definitivt vara nåt som är beroende på tillverkare , generation av SSD etc..

Vanuda Ericsson

SSD defragg..

2012-11-12 00:16

Jag tror att du startar frågan helt fel, och därför finns det inget svar på den.

Fragmentering i sig är ingen prestandabov på SSD. Därför behöver det inte göras i sig. Prestandabovar på SSD är t.ex. slumpvisa små skrivningar, vilket olika kontrollertillverkare löser på olika sätt med buffertminnen. Problemet är att det skrivs till hela block, och om du gör en massa små skrivningar så skriver du egentligen till en massa stora blcok individuellt. Kontrollers löser det genom att packa ihop små skrivningar till en stor skrivning om det är möjligt. Dessutom är skrivning till områden som tidigare använts men inte nollställts en prestandabov eftersom det innebär att data i blocket först måste nollställas innan ny data kan skrivas där. Det första problemet hanteras av propreitära lösningar från t.ex. Vertex eller Marvell. Det andra hanteras av TRIM. I TRIM-algoritmen ingår även att undvika att skriva till samma tomma områden om och om igen, så långt det går.

Defragmentering ger ingen märkbar prestandavinst, eftersom läsning från en SSD inte lider av att data hämtas från olika ställen. Det är bara olika adresser i ett rutmönster där alla punkter egentligen är lika lättåtkomliga.

hans.pedersen

SSD defragg..

2012-11-12 09:09

Fragmentering skapar slumpmässiga små filer. NTFS och flera andra filsystem kan ha fragment från flera filer på samma block. Därför blir dessa filsystem alltid snabbare vid minskad fragmentering, även på en SSD.

De flesta SSD:er och hårdiskar idag kör med Copy on Write och skriver inte till samma fysiska block även om du anger samma logiska block.

falde

SSD defragg..

2012-11-13 03:19

Logiska och fysiska block har inte varit detsamma sedan 80-talet. Det är ju tillägg som lagts till successivt för att kunna hantera bakåtkompatibilitet för kontrollers, i takt med att diskarnas kapacitet ökat. Att fragmentering skapar märkbar förluster i prestanda på ssd är i realiteten rätt osannolikt, att m majoriteten av all data är kraftigt fragmenterad. TRIM sköter det bra nog, annars tror jag nog att vi sett andra tillgängliga lösningar redan. Flaskhalsen vid läsning ligger mer på själva transporten av data, hantering av kontrollen och så klart själva tekniken som NAND-cellerna är baserad på.

hans.pedersen

SSD defragg..

2012-11-11 20:14

på SSD disk finns inte begreppet fragmentering.

Det går precis lika snabbt att läsa minneskrets 1 som 100 000, det spelar ingen roll om delarna av en fil ligger i efterföljande kretsar eller om de är utspridda slumpmässigt över minnesytan.

Defrag är därmed helt meningslöst på en SSD disk och har endast effekten att disken slits i förtid.

TomasR

SSD defragg..

2012-11-11 21:39

Nästan helt korrekt..;-)

Fragmentering finns dock i filsystemet och när en fil skall hämtas så måste de relevanta delarna av filsystemet läsas in i minne. Allt finns inte cachat i ram..

Det är snarare detta jag är ute efter än efter att en sektor råkar ligga på plats 1 eller 100000 och att man gör 2 hämtningar istället för 1.
Om en fil har 10000 fragment spridda över disken så skulle jag vara mycket förvånad ifall det inte har impact på accesstiden..

Notera då att det blir 10000 läsningar istället för kanske 200-500 för att läsa hela filen..

Och som sagt var.. Att du har en SSD påverkar inte hur filsystemet allokerar sektorer.. NTFS är precis lika bra eller för den delen dåligt på att leta efter ledig diskyta..

Vanuda Ericsson

SSD defragg..

2012-11-11 21:56

Ah well, riktigt så enkelt är det väl inte.

Okej, rent sekventiell läsning kan vara snabbare än en ren slumpmässig läsning även på SSD men i jämförelse med en vanlig roterande disk är det en negligerbar skillnad i hastighet.

Du har en söktid på din SSD på i kring 0,2 ms. Det går snabbt att leta reda på en slumpmässig minnescell på disken.

TomasR

SSD defragg..

2012-11-12 04:10

Det du inte tänker på är att den blocklayout som operativsystemet och defragmenteringsverktyget ser inte motsvarar den verkliga layouten i minneskretsarna. Wear-leveling gör att tex block 1 i operativsystemets ögon, flyttas till ett nytt fysiskt block på disken, varje gång det skrivs om. Alltså finns det ingen möjlighet att "defragmentera" en SSD, och alla försök att göra det leder endast till att nya block allokeras på slumpmässiga ställen och att cellerna slits i onödan.

Det är alltså upp till controllern på flashdisken att hantera detta, och nuförtiden är de flesta så bra att det inte har så stor betydelse vilken man väljer.

Farull

PCI Express 3.0 > SATA 3

2012-11-11 18:25

http://www.youtube.com/watch?v=c9UsqJ_o5wQ

Ichinin

Fixar väl redan Perfect disc?

2012-11-11 19:09

Jag älskar Perfect disc. Att installera den är som att lägga till 50% mer RAM. Som jag har förstått det placerar den de oftast använda programmen på den snabbaste delen av hårddisken automatiskt.




Linuxporr: http://mediamorkar.blogspot.se/2012/10/10-sep-2012-linux-fralser-folket-linux_7041.html

lab-man

Stroking...

2012-11-12 00:18

Jag brukar pyssla med stroking; men inte med något sjukt grafverktyg, går ju att räkna ut om man bara vet hur sin hårddisk är uppbyggd.

Nå. Ett annat problem för de med äldre/sämre OS är ju att _man måste tänka sig för vart man skapar sin partition_. Alignment, alignment, alignment. Alignar man inte rätt kan man sitta och stroke'a hur mycket man vill - det blir inget av det ändå.

Mandrake

Stroking...

2012-11-12 08:35

är inte "stroking" något helt annat? (kunde inte låta bli)

Snube Frasselis

Apples Fusion Drive verkar vara lösningen

2012-11-12 03:32

De nuvarande ca 40 kommentarerna verkar sakna förslag på kommersiell lösning på problemet, fix & trix är allenarådande för att speeda upp disken. Apple har sin produkt som tillval rakt över disk utan fix & trix. Annars blir det SSD + roterande disk som fungerar på de flesta system. Vad säger alla grabbarna grabbers som är både tekniskt kunniga och erfarna av fix & trix i er vardag, - är det där tekniken befinner sig idag?

OwnerX

MyDefrag

2012-11-12 07:41

Eller så använder man http://www.mydefrag.com/ och väljer "Consolidate all data in the beginning of the disk"-läget.

Pappa Nils

Comments powered by Disqus

- PC för Alla:

6 tips för snyggare
PowerPoint-jobb

- PC för Alla:

Chrome dumpar 30 år
gammal Windows-teknik

- PC för Alla:

Här är Facebooks
nya bokmärken

Asus PA279Q

- PC för Alla:

Asus PA279Q: Suverän bildskärm för entusiaster

FL studio musik

- PC för Alla:

Så skapar du din hitmusik i FL Studio

usb krångel

- PC för Alla:

Här fixar du usb-portar som krånglar

Prenumerera på nyheter

Missa inte PC för Allas
smarta nyhetsbrev
Läs mer om nyhetsbreven här!
  PFA Express
  Veckans surftips
  Extreme
  Veckans köptips
PC för Alla-nätverket
Detta är PC för Alla  | Vi gör PC för Alla  | Kontakta oss  | Rättelser  | Kundservice  | Annonsera  | Press

Har du synpunkter på sajten? Kontakta sajtansvarig: Andreas Thors | Kontakta PC för Alla | Om cookies, personuppgifter & copyright
Karlbergsv. 77 106 78 Stockholm Tel: 08-453 60 00 Karta | Copyright © 1996-2014 International Data Group