Zaiendo Wir sind die Community


Neueste Ankündigungen:
Zaiendo.de ist auf FaceBook und Youtube.

Witz des Tages:
Ein Jäger aus Kanada hat sich ein neues Gewehr gekauft. Er geht gleich damit in die Rocky Mountains auf Bärenjagd. Kaum angekommen, sieht er einen riesigen Grizzly. Er legt an, schießt, doch der Grizzly ist weg. Da klopft ihm jemand auf die Schulter. Er dreht sich um und sieht den Bären. Der sagt: "Entweder ziehe ich Dir mit meiner Pranke durchs Gesicht, oder du läßt die Hose runter und beugst dich nach vorne". Der Jäger beschließt, kein Held zu sein und läßt die Hose fallen. Nach dem alles vorüber ist, fährt er zurück in die Stadt, kauft sich einen Elefantentöter und geht wieder auf die Jagd. Er sieht den Bären, legt an und schießt. Als sich der Rauch verzogen hat, ist der Bär wieder weg. Stattdessen klopft er ihm auf die Schulter und sagt: "entweder ziehe ich Dir..."
Als wieder alles vorüber ist, fährt er wieder in die Stadt und kauft sich eine Kiste Dynamit. Er fährt zurück in die Rockys, sieht den Bären und zündet die Ladung. Als sich der Rauch verzogen hat, ist der Bär weg. Da klopft der Bär ihm wieder auf die Schulter und sagt grinsend: "Allmählich glaube ich, dass Du gar nicht wegen der Jagd hier bist..."

Teilen auf:
Twitter Facebook Stumble Upon Delicious Google

Themabewertung:
  • 1 Bewertung(en) - 5 im Durchschnitt
  • 1
  • 2
  • 3
  • 4
  • 5
[Beratung] Festplattenberatungsthread
#41
Ich habe mir jetzt lentzendlich doch die 1000GB Samsung HD103SJ F3 bei Mindfactory bestellt.

Midnightshopping ist ja ganz nett, aber 2 der bestellten anderen Sachen waren plötzlich dann nicht mehr verfügbar. (Vorher geprüft: Vorrätig)
Ein Produkt musste durch ein anderes Ersetzt werden, weil es laut Mail nicht mehr reinkommen würde und das neue, was auch vorrätig sein sollte, ist wohl doch nicht vorrätig.
Außerdem hab ich unfreiwillig ServiceLevel Gold mitbestellt, das passiert automatisch, kostet 5€...

Bin ich mal gespannt ob das Paket ankommt, bevor mein Windows 7 endgültig abläuft. Big Grin
I'm sorry, Dave. I'm afraid I can't do that.
Antworten
#42
Heute gabs auf Zack-Zack ne interessante Diskussion, bei der ich der Meinung bin, die sollte für die Nachwelt archiviert werden - dazu könnte das natürlich auch für den ein- oder anderen von uns interessant sein:

Verschlüsselung auf SSD
im Angebot ist/war eine Kingston SVP100ES2/128G mit Hardwareverschlüsselung

dsponline @ zack-zack 19:56 schrieb:Mal ein paar Anmerkungen zur Hardware- contra Software-Verschlüsselung wie Bitlocker/TrueCrypt u.Ä. Nur weil hier weiter unten ein paar Poster meinen das würde auf einer SSD auch ausreichen - dass ihr da mal nicht auf ein falsches Pferd setzt!

Software-Verschlüsselung ist nicht gerade das Klügste was man auf einer SSD so machen kann, sofern man nicht gerade nur einzelne Dateien separat verschlüsselt.

Legt man eine verschlüsselte Partition oder ein encrypted Container-File an (wie normalerweise üblich), so wird die Partition bzw. der Container zwingend vorher mit Zufallszahlen formatiert, um die später enthaltenen Files nicht von unbenutzten Bereichen unterscheiden zu können.

1.)
Software-Verschlüsselung ist Gift für die SSD, da sie in großen Teilen mit Zufallszahlen zwangsbeschrieben werden muss.

2.)
Durch die Formatierung mit Zufallszahlen wird eine hohe Anzahl von MLCs blockiert die der SSD-Controller nicht mehr für das Wear-Leveling nutzen kann, da er nämlich nicht weiß, ob sie gültige/ungültige Daten enthalten oder nur beabsichtigtes Hintergrundrauschen. Für den Controller ist das ein "einziges" großes belegtes File.

3.)
Das TRIM Kommando des Betriebssystems funktioniert "bestenfalls" auf einer verschlüsselten Systempartition (lt. Angabe von TrueCrypt-Entwicklern), nicht aber in Container Files.

4.)
Auf einer mit z.B. Truecrypt verschlüsselten SSD muss man einen erheblichen Teil der SSD unpartitioniert lassen (Minimum 20%), damit vom SSD-Controller ausreichend freie Blöcke für das Wear-Leveling genutzt werden können, denn der komplette Bereich eines Container Files ist ja dafür blockiert, auch wenn NICHTS im Container abgelegt ist! Wenn aber kaum freier Bereich mehr verfügbar ist bricht die Gesamtleistung der SSD dramatisch ein.

5.)
Verschlüsselung bedingt eine deutlich schnellere Abnutzung "bestimmter" MLCs, da nicht mehr aus allen freien MLCs per Wear-Leveling geschöpft werden kann, sondern nur noch aus wenigen datenfreien MLCs, die entweder in nicht partitionierten Bereichen liegen oder in nicht verschlüsselten Bereichen. Diese MLCs werden dafür umso häufiger/heftiger bemüht, das kann im schlimmsten Fall dazu führen, dass solche MLCs bereits defekt sind während ungenutzte MLCs, die aber durch ein Container-File belegt sind, noch fabrikneu sind.

6.)
Innerhalb von Container-Files bricht die Geschwindigkeit der SSD dramatisch ein, da für den SSD-Controller innerhalb dieses Files ALLE MLCs immer mit Daten gefüllt und keine freien Bereiche vorhanden sind. Noch schlimmer ist der Einbruch bei bestimmten Controllern – siehe Punkt 8.

7.)
Man darf, wenn man sensible Daten verschlüsseln will, die Daten nicht bereits auf der SSD haben und nachträglich verschlüsseln. Es ist nicht gewährleistet ist, dass diese bei der Verschlüsselung auch überschrieben werden und nicht in irgendwelchen MLCs weiterhin vor sich hinlauern, während die verschlüsselten Daten in anderen MLCs abgelegt wurden.

8.)
Und zuletzt ist es eine ganz blöde Idee eine Verschlüsselung auf SSDs einzurichten, die bereits intern mit Hardware-Komprimierung arbeitet, wie z.B. alle SSDs mit Sandforce-Controller. Denn die Verschlüsselung komprimiert ebenfalls und Sandforce Controller versuchen das dann zeitaufwändig zusätzlich nochmals.

ZITAT c't:
"…füllt TrueCrypt alle freien Bereiche einer Partition mit Zufallszahlen. Für den Flash-Disk-Controller ist die SSD dann anscheinend voll. Wie bei einer „auf natürlichem Wege“ vollständig befüllten SSD können dann Geschwindigkeitseinbußen die Folge sein. Wie stark sie ausfallen, hängt unter anderem von der Funktionsweise des jeweiligen Controllers ab. Besonders stark brechen die Transferraten bei aktuellen Flash-Disks ein, die mit einem Controller der Firma Sandforce arbeiten, denn dieser erreicht seine normalerweise sehr hohen Transferraten durch Datenkompression".

Also Alles nochmals auf einen Punkt gebracht:

Software-Verschlüsselung auf einer SSD macht SSDs deutlich schneller kaputt und hebelt teilweise die TRIM-Funktion aus. Unter Software-Verschlüsselung funktioniert deshalb auch das Garbage-Collection nicht korrekt. Software-Verschlüsselung macht SSDs LAAAAAAAANGSAAAAAAAAAM.

Hardware-Verschlüsselung hat kein einziges dieser Probleme, da der Encryption-Chip eng mit dem SSD-Controller zusammenarbeitet und jeder der Beiden genau weiß was der Andere gerade macht. Zusätzlich verschlüsselt der Encryption-Chip die Daten erst nachdem sie an die Platte geliefert wurden und nicht vorher, wie bei Software-Encryption. Deshalb gibt es keinerlei Auswirkung auf die Lebensdauer der SSD oder die Geschwindigkeit, da hier TRIM und Garbage-Collection weiterhin 100% funktionieren. Die Geschwindigkeit der SSD kann dadurch theoretisch sogar steigen, da der Encryption Chip (sofern er schnell genug ist) auch komprimiert. Wegen der Probleme mit doppelter Datenkompression werden bei hardwareverschlüsselten SSDs keine Sandforce-Controller eingesetzt, so wie z.B. bei dieser SSD hier oben im Angebot, die hat nämlich einen Toshiba Controller mit 128 MB Cache.

lolnickname @ zack-zack 20:06 schrieb:Nur so nebenbei wo hat man eigentlich den Schlüssel, wenn die Chiffrierung hardwareseitig passiert?
Ich weiß das es Lösungen mit RFID Token gibt aber das wird hier nicht erwähnt.

dpsonline @ zack-zack 21:13 schrieb:Vorraussetzung zum Nutzen der Hardware-Verschlüsselung dieser SSD ist ein PC-BIOS, welches über ATA-Sicherheitsfunktionen verfügt, was noch nicht immer selbstverständlich ist.

Diese SSD wird standardmäßig ohne Passwort ausgeliefert. Gibt man kein Master-Passwort ein kann man sie als normale SSD verwenden. Von einem Hardware-Token (RFID/USB etc.) ist hier weit und breit nichts in Sicht. Inwieweit hier ein eventuell vorhandener TPM-Chip (Trusted Platform Modul) des Mainboards mit reinspuckt wird auch nicht dokumentiert.

Wenn man ein Master-Passwort vergibt wird der Encryption-Chip aktiviert und bleibt aktiviert. Das Passwort wird dabei fest im Encryption-Chip gespeichert. Zur Eingabe/Aktivierung eines Passwortes wird im PC-BIOS unter Sicherheit das ATA-Passwort verwendet, welches den allgemeinen Zugriff auf die Festplatten erlaubt. Über mögliche Probleme mit diversen BIOS-Versionen und Passwort-Konventionen macht die Betriebsanleitung der SSD keine Angaben.

Da sich die Bedienungsanleitung zu dieser Platte auch über die genaue Funktionalität der Verschlüsselung vollständig ausschweigt, außer der Modalität wie man das Passwort vergibt, gehe ich davon aus, dass der SSD-Encryption-Chip selbst einen Verschlüsselungs-Hash aus dem eigenen Passwort und einen Zufalls-Schlüssel generiert, der bei der Herstellung implementiert worden ist.

Es sieht nicht so aus als ob man danach das Passwort noch ändern könnte, es wird auch eindeutig darauf hingewiesen, dass man bei Verlust des PW auch alle Daten verliert.

Also wenn einem das Mainboard, mit dem man das PW vergeben hat, verreckt, besteht durchaus die Möglichkeit, dass man an einem Ersatz-Mainboard nicht mehr so ohne Weiteres an die Daten herankommt, wenn dort die ATA-Passwort-Funktion nicht sauber funktioniert oder die SSD nicht korrekt erkannt wird.

Wie gesagt, die Bedienungsanleitung schweigt sich nahezu über alles aus und das in sehr vielen Sprachen.

ichbins2008 @ zack-zack 21:46 schrieb:Das war ja mal toll ausführlich. Kann man dann auch davon ausgehen, dass die Garbage Collection und Trim bei Containern von Virtuellen Maschinen auch nicht funktioniert und somit VM-Container evtl. auf konventionellen Platten besser aufgehoben sind?

dpsonline @ zack-zack 23:15 schrieb:Ja, das ist "prinzipiell" ein vergleichbares Problem, aber virtuelle Maschinen sind in der Regel nicht annähernd so groß wie ganze verschlüsselte Partitionen oder SSDs. Es sei denn eine SSD ist randvoll mit VMs belegt. Auch sind in virtuellen Maschinen die freien Bereiche üblicherweise nicht mit Zufallszahlen gefüllt.

In einer VM kann man z.B. auch frei Bereiche Nullen, d.h. mit binären Nullen überschreiben, die betroffenen MLCs gelten dadurch als leer und sind beim Beschreiben deutlich schneller. Ein automatisches Trim oder Garbage Collection geht natürlich innerhalb einer VM auch nicht.

Ich löse das Problem auf ganz andere Weise, ich habe meine VMs zwar auf SSDs oder in einem SSD-RAID-0 liegen, aber hieve sie zur Laufzeit in eine RAMDisk. Vom SSD RAID-0 kann ich die VM extrem schnell lesen und in die RAMDisk kopieren, das dauert nur wenige Sekunden, in der RAMDisk rennen sie dann wie die Angst und die SSD hat prinzipiell absolut nichts mehr damit zu tun. Vorraussetzung dafür ist natürlich ausreichend Hauptspeicher und entsprechend von der Größe passende VMs. Also ab 16 GB RAM aufwärts wird es da richtig interessant. Und vor Allem kann man in einer VM auf einer RAMDisk so richtig abhausen wie man will, man muss sie nicht vor ungewollter Veränderung schützen, kann sie blitzschnell rauf und runterfahren bzw. beliebig an- und abschalten ohne dass sie zurückgesetzt wird etc. Erst wenn man den Rechner runterfährt ist alles wieder sauber und nur das "aktuell" was man auch wirklich gezielt auf der SSD abgelegt hat. Wenn es wirklich wichtige Änderungen in der VM gibt wird sie einfach erneut auf der SSD abgespeichert.

ichbins2008 @ zack-zack 0:13 schrieb:Interessante Vorgehensweise. (Wie) klappt Garbage Collection oder Trim bei SSD-Raid ?

dpsonline @ zack-zack.de 0:45 schrieb:TRIM im RAID geht gar nicht, GC ist von der SSD-Firmware abhängig.

Bei mir im Server 2k3 mit 3 Falcons an Intel ICH10R im RAID-0 geht da nichts. OS kann sowieso nicht, SSDs können nicht und Controller kann auch nicht. Und ich verwende bewusst eine zwar TRIM-fähige aber nicht GC-fähige Firmware, da deutlich schneller.

Einmal pro Monat die freien Bereiche Nullen langt aber auch. Und wenn es gar nicht anders geht wird das RAID eben mal kurzfristig aufgelöst, die SSDs einzeln manuell getrimmt und wieder in den Verbund gehängt. Dauert auch nicht mehr als eine Stunde incl. Daten hin- und herschaufeln.

Antwort auf 1.)
DaBzzz @ zack-zack 2:08 schrieb:1) 1x sequentiell Vollschreiben macht einen von ~10000 möglichen Schreibvorgängen jeder Zelle aus. Da ist eine OS-Installation mit vielen winzigen Dateien unterhalb der Zellengröße bei nichtsequentieller Schreibweise wesentlich "schädlicher".

2) Darum nicht den ganzen Datenträger nutzen, dann klappts auch mit dem Wearlevelling.

4) Ich würde das nicht relativ, sondern absolut sehen. Auf einer 30GB-SSD tun 6GB aka 20% frei herumschiebbarer Speicher sicher ganz gut. Wofür ich bei einem 128GB-Laufwerk (oder treiben wirs auf die Spitze: 512GB) aber 26 bzw. über 100GB freien Speicher brauche ist mir ein wenig schleierhaft. Es genügt, wenn der Controller einen Bereich der Partition verschieben kann. Das kann auch ein relativ kleiner sein, er muss nicht für die ganze Partition einen Zweitparkplatz vorfinden. Obendrein wird die Differenz zwischen den verkauften 128 GB und den eingebauten 128 GiB eh genutzt, um Freispeicher für genau solche Fälle zu haben.

5) Genau darum gibt es Wearlevelling. Sei Block 1 schwer genutzt und verschlüsselt, Block 2 seltenst genutzt und verschlüsselt, und Block 3 frei. Dann vertausche ich den Dateninhalt von 1 mit 3, und später 3 mit 2. Abgesehen vom Swapbereich kriegt dann jede Zelle mit nur 2 zusätzlichen Schreiboperationen im Laufe der Zeit mal den schwarzen Peter zugeschoben. Natürlich wird das öfter gemacht als einmalig, aber das macht bei dem minimalen Aufwand das Kraut auch nicht fett.

6) Eben, ein anständiger Controller fängt es ab und speichert es in einem separaten, freien Block. "Dramatisch" wirds nur, wenn der Controller es nicht rafft und stattdessen erst die Zelle liest und dann mit den neuen Daten erneut schreibt. Das halbiert dann den Durchsatz (wenn Read und Write gleich schnell, ansonsten größerer Einbruch). Damit sollte man leben können...

8) Verschlüsselung komprimiert nicht. Nur ist der Output von möglicherweise gut komprimierbaren Daten nach einer Verschlüsselung quasi nicht komprimierbar und die Mühen der SSD sind völlig umsonst.

und ich nenns mal 9) Was nützt mir eine Hardware-Verschlüsselung, von der ich weder weiß, wie sie funktioniert, noch sicher sein kann, dass sie a) korrekt implementiert wurde (siehe Phasenraumplot bei manchen USB-Sticks/Platten, z.B. Staray, Digittrade, Drecom,...) und b) keinerlei Hintertürchen für wen auch immer haben (angeblicher Schlüssel nur auf Liste erlaubter Schlüssel für Zugriff auf tatsächliches Masterpasswort für die Daten)


@Magiceye04: Wenn ich einem Rechner nicht traue, dann stöpsel ich da auch sinnvollerweise keine Daten von mir an...

@VMs im RAM: Wenn ich ohnehin im RAM arbeite und den dauerhaften Speicherplatz genau einmal beim Auslesen der VM-Daten und einmal beim abschließenden Abspeichern brauche: Warum dann eine SSD? Ziemlich sinnfrei. Bei 10GB spar ich mir bei 285 MB/s vs. 125 MB/s jeweils 45 Sekunden (35s vs. 80s). Dafür kostet mich der Speicherplatz auch 15€ statt 40 Cent...und wenn ich das tatsächlich so brauche (=zum Broterwerb, Gegenrechnung mit Stundenlohn), kriege ich den Speed mit Platten sehr einfach aufs Level eines SSD-RAIDs, nur eben zu einem Bruchteil der Kosten. Bei etwas über nem GB/s macht ein Consumerboard ohnehin dicht, von bezahlbaren Controllern mal ganz zu schweigen.


...und damit ich auch noch was positives sag: Punkt 7 ist natürlich absolut richtig ;D

dpsonline @ zack-zack 10:50 schrieb:zu 1.)
Ich kenne genug Leute die ihre Platte nicht nur einmal verschlüsseln und danach nie mehr anfassen, sondern immer wieder Container-Files anlegen bzw. diese häufig hin und her kopieren. Es gibt sogar ein paar Paranoiker die immer wieder VMs in neuen Containern ablegen, obwohl man die eigentlich auch selbst verschlüsseln kann. Da wird es dann auf Dauer schon relevant.

zu 2.)
Habe ich etwas anderes geschrieben, ich habe doch selbst im Text darauf hingewiesen, dass man Platz frei lassen soll?

zu 4.)
Dann verrate mir mal warum die ersten, "besseren" Sandforce SSDs immer einen freien Spare-Bereich von gut 20% hatten und deutlich performanter unter Last liefen als die nachfolgenden höherkapazitiven "E" (Extended) Versionen, die nur noch auf einen Spare-Bereich von rund 7% zurückgreifen können, dafür aber bei Sustained Writes wesentlich stärker einbrechen und die Lebensdauer auch etwas geringer ist. Und das unabhängig von der Größe der SSD. Und das wurde nicht aus technischen, sondern rein aus marktwirtschaftlichen Gründen geändert – der unmündige Kunde kauft nun mal lieber mehr angeblichen Inhalt, vor Allem wenn er nicht darüber aufgeklärt wird was er sich damit wirklich einhandelt.

zu 6.)
Anständige Controller, bzw. anständige Firmware dafür sind im unteren Preissegment nicht wirklich zu haben und ich schreibe hier nicht für Leute mit teuren High-End-Enterprise-SSDs. Schau doch mal welche Consumer-SSDs am Besten gehen – das sind meist billige Modelle mit an sich einigermaßen akzeptablen Controllern, die aber per Firmware brutal kastriert wurden.

zu 8.)
Sicher, die Datenstruktur nach der Verschlüsselung ist an sich so dicht wie eine komprimierte Datenstruktur, meine Aussage mit der Komprimierung war wohl etwas missverständlich, damit wollte ich eigentlich nicht sagen, dass die "Verschlüsselung" an sich komprimiert, sondern dass danach kaum mehr komprimiert werden kann.


Und zum Thema VM:
Na und?
Wer sagt denn, dass ich das RAID speziell für die virtuellen Maschinen habe?
Das RAID ist für etwas ganz anderes da, wo es wirklich um Durchsatz geht, aber es tut mir nun mal absolut nicht weh, wenn ich die VMs zusätzlich darauf ablege und den Geschwindigkeitsvorteil auch noch mitnehme. Und wer sagt denn dass die VM abschließend gespeichert wird oder werden soll. Abgesehen davon befindet sich in dem Server keine mechanische Platte mehr, damit ich das auch langsamer erledigen könnte.
Es wird keiner gezwungen meine Konfiguration nachzuahmen.

Wenn ich in einem Porsche einen Kasten Bier transportiere ist das Verhältnis von Anschaffungspreis des Autos zum Transportgut auch sehr schlecht, das ginge mit einem Fiesta oder Fahrrad auch wesentlich billiger und in der Stadt auch nicht besonders viel langsamer. Aber wenn man nun mal den Porsche schon aus anderen Gründen hat, warum dann nicht auch gleich zum Bierholen mitbenutzen? Nur mal so als Analogie, nicht dass ich jetzt einen Porsche hätte, mein Geld steckt ja in den SSDs. ;-)


Ich enthalte mich zur derzeitigen Stunde mal einer Meinung dazu...
greets
mr.tommi
Antworten
#43
Interessant, also sollte man bei SSDs stets auf Hardware-Verschlüsselung setzen und nicht auf Software-Verschlüsselung.
Besonders aufgefallen ist mir aber diese Formulierung hier, die ich nicht ganz verstehe:
Zitat:Obendrein wird die Differenz zwischen den verkauften 128 GB und den eingebauten 128 GiB eh genutzt, um Freispeicher für genau solche Fälle zu haben
(Aus dem letzten Beitrag)
Den Unterschied zwischen GB und GiB haben wir ja kürzlich im Forum breit diskutiert, hier hört es sich aber so an als wäre da doch quasi alles vorhanden und wird nur nicht erfasst aber von der SSD doch genutzt? Habe ich das nun richtig verstanden?
[Bild: zaiendosig.php]
Antworten
#44
Bei der sehr beliebten, da aktuell auf die Größe gerechnet günstigsten Festplatte am Markt, der Samsung HD204UI und ein paar verwandten Modellen gibt es ein Firmware-Problem, weswegen man die aktuelle Firmware herunterladen und aufspielen sollte.

heise.de schrieb:...
Ein c't-Leser meldet, dass Daten auf der Platte beschädigt wurden, wenn er die smartmontools unter Windows verwendete. Der Fehler ließ sich im c't-Labor bei einer Festplatte mit der Firmware-Version 1AQ10001 reproduzieren, sofern drei Bedingungen zutreffen: Die Platte hängt an einem SATA-Hostadapter, der im AHCI-Modus läuft, es werden Daten geschrieben und gleichzeitig SMART-Parameter mit den smartmontools abgefragt. Startet man beispielsweise das Testprogramm H2testw und nutzt gleichzeitig smartmontools, dann treten die Fehler auf. Auch unter Linux ließ sich das Problem nachstellen. Betroffen sind SATA-AHCI-Controller sowohl von AMD als auch Intel. Im IDE-kompatiblen SATA-Betriebsmodus traten im c't-Labor keine Fehler auf. Im RAID-Betriebsmodus des SATA-Adapters können die smartmontools keine SMART-Parameter über ATA-Befehle abfragen, deshalb trat der Fehler ebenfalls nicht auf.
...

Ein weiterer, neuerer Artikel geht im Abschnitt Update auf die einzelnen, betroffenen Modelle ein:

heise.de schrieb:...
Die neue Firmware ist auch für die Festplatten-Versionen HD204UI/Z4 und HD204UI/UZ4 gedacht sowie für die 1,5-TByte-Platte HD155UI und deren Varianten HD155UI/Z4 und HD155UI/UZ4; für die Produkte mit den Bezeichnungen HD204UI/JP1 und HD204UI/JP2 gibt es hingegen ein anderes Update.
...

Das Firmware-Update lässt sich auf der Samsung-Page downloaden...

Mich hat das Problem zum Glück nicht betroffen, da ich die Platten nicht im AHCI-Mode ansteuere, sondern im IDE-Mode, weil AHCI bei mir nicht korrekt arbeitet (Platte wird bei erneutem Verbinden nicht mehr erkannt - k.A., was das Prob ist, betagtes Mainboard, Treiber oder Windows? - egal, IDE-Modus tuts auch^^)
greets
mr.tommi
Antworten
#45
Hmm, kürzlich stand ich kurz davor mir die zu holen weil ich solchen Platzmangel habe, ließ sich aber mit dem aktuellen Geldmangel nicht vereinbaren Big Grin
Was dein Problem angeht: Probiers doch mal mit nem Linux, wenns da auch nich geht kannste Windows und Treiber ausschließen und neues Mainboard kaufen gehen.
[Bild: zaiendosig.php]
Antworten
Werbeagentur gesucht? PRinguin, die Digitalagentur. Für Web Entwicklung und Online Marketing.
Registriere dich (kostenlos) um diese Werbung zu verbergen.
#46
(21.12.2010, 12:16)Lennart schrieb: Hmm, kürzlich stand ich kurz davor mir die zu holen weil ich solchen Platzmangel habe, ließ sich aber mit dem aktuellen Geldmangel nicht vereinbaren Big Grin
Lachtot Sehr geil...leider nur nicht für dich Tongue
Ich sag mal Spontan, dass es an Windows liegt, seit ich Windows 7 drauf hab, sagt er mir auch immer mal wieder gerne Fehler, beim anschließen meiner externen Platte oder auch meines ipods, oder oder oder... Doch warum sollten alle Sachen jedesmal aufs neue im Dateisystem auf Fehler überprüft werden? Und warum hat das erst Win7 gemerkt? Sehr mysteriös das ganze...Big Grin
[Bild: artikel_logo_3098.jpg]
Antworten
#47
Naja - also das juckt mich eigentlich ned, dass AHCI ned fehlerfrei tut...
Bei den eSata-Ports tuts übrigens seit dem letzten Treiberupdate, also kanns eig ned am Windows liegen, kommt mir grad... Nur damits ned falsch verstanden wird - das Problem hab ich nur bei den internen Sata-Ports, die ich im Bios ja auch auf AHCI stellen kann. Beim ersten Connecten funktioniert das Erkennen und ich kann normal mit der Platte arbeiten und am Ende "Sicher entfernen". Will ich Sie aber später ohne OS-Neustart wieder connecten, passiert garnix. Ist eigentlich nur bei meinem Zweitrechner relevant, wo ich ja diese interne dreifach-Dockingstation verbaut habe. Ich löse das ohne Hot-Swap nun so, dass ich nach Möglichkeit die Platten schon beim Booten des Rechners drin hab (ist eh schonender, denk ich) & falls ich mal doch eine im Betrieb einschieben muss, gehe ich in die Geräteverwaltung & lasse die Platten neu erkennen - dann ist die nachträglich dazugekommene auch dabei - dauert maximal 30 Sekunden, bis ich mich da hin geklickt hab & die Platte erkannt ist - also definitiv kein Drama & für mich kein Grund, für den Zweitrechner ein neues Board zu kaufen.
Das Problem muss, da es bei e-Sata ja funktioniert, am Chipsatz (Intel P965) oder am zugehörigen Treiber liegen. Auch hierzu fällt mir wieder was ein, dass ich bislang nur bei Asus (MB-Hersteller) nach "aktuellen Treibern" (Board ist aus 2005) gesucht hab & nie bei Intel - Asus hat aber auch keinen sinnvoll funktionieren Treiber für den eSata-Port parat - den hab ich nur beim Chiphersteller auf seiner taiwanischen Page gefunden.^^
greets
mr.tommi
Antworten


Verlinke dieses Thema:

Teile es auf:
Twitter Facebook Stumble Upon Delicious Google GMail LinkedIn



Benutzer, die gerade dieses Thema anschauen: 1 Gast/Gäste