Niestety, ta okazja wygasła 9 września 2019.
842°
Opublikowano 6 września 2019
Crucial MX500 1TB dysk SSD 3D NAND, SATA, 2,5 cala Amazon 100,84 EUR
Darmowa dostawa ·
Opublikowane przez
tymol
Dołączył w 2018
4
297
O tej okazji
Ta okazja już wygasła. Oto kilka opcji, które mogą Cię zainteresować:
Promocja znaleziona na Amazon na dysk:
Crucial MX500 1TB dysk SSD 3D NAND, SATA, 2,5 cala
Cena w Polsce wg. Ceneo około 500 zł. Dzisiaj na Amazon za 438 z płatnością w Euro przez Revolut.
Przed zakupem trzeba aktywować kupon promocyjny na stronie produktu.
Specyfikacja dysku dostępna na stronie Amazon.
Crucial MX500 1TB dysk SSD 3D NAND, SATA, 2,5 cala
Cena w Polsce wg. Ceneo około 500 zł. Dzisiaj na Amazon za 438 z płatnością w Euro przez Revolut.
Przed zakupem trzeba aktywować kupon promocyjny na stronie produktu.
Specyfikacja dysku dostępna na stronie Amazon.
Więcej szczegółów na
Aktualizacje społecznościowe
106 Komentarzy
sortowanie:Oczywiście masz rację że wychodzi 438. Poprawiłem cenę.
Typie, to nie był skrót myślowy, tylko elementarny brak wiedzy z twojej strony
Jakiż musi być twój mind fuck, gdy widzisz kostki 3D MLC Doedukuj się, bo robisz z siebie błazna.
I jeszcze to lizanie własnego p... lajkowanie własnego posta xD
Co za koleś
Nawet nie tyle podstarzany co produkowany coraz gorszej jakości. Specjalnie dobrałem QLC vs TLC:
Skoro to taka kupa czasu a producenci udoskonalają towar to czemu nie dają już gwarancji na te 5 lat ?
Tu cały film:
Dlatego warto poszukać dysków na kościach MLC - dopóki będą jeszcze produkować to tylko takie kupować.
O nie! Zagłada dla danych...
Jeżeli prowadzisz data center to wiesz jak szybko ten dysk się zwróci. Natomiast jak nie wiesz jak szybko się zwróci to znaczy że nie potrzebujesz takich dysków.
Najwyraźniej taki Miesiu szuka. Cofnij się stronę do tyłu i zobacz skąd się wzięła rozmowa o tym.
zaraz wstawię tutaj komentarz sprzed 4miesięcy gdzie mam identyczny dysk w innym komputerze. Może też tam powiesz że to mało TB.
pepper.pl/pro…e=4 (Edytowano)
"Czyli" Typie, ale wiesz, że pojęcia 3D NAND i TLC nie są tożsame? Jak chcesz się czepiać wstawki, to rób to merytorycznie;)
Również daje minusa. Jestem zawiedziony. Liczyłem na QLC :/
Kolego, przestań czytać tylko ostatni komentarz i przeczytaj ze zrozumieniem cała dyskusję. Już ustaliliśmy, że MX500 to nie dysk serwerowy i zakończymy na tym bez polecania czegoś co i tak nikt stąd nie kupi, bo to nie miejsce na poszukiwanie takich porad.
a dobra już wiem w czym był problem - wybór opakowania powodował różnicę w cenie, przy standardowym opakowaniu jest rabat do dania - dzięki
Powiedz to poprawkom mikrokodu Intela :/ 😄
W jaki sposób...
?
Ok, to teraz mogę Ci napisać, że się mylisz.
Położenie danych na partycji nie ma bezpośredniego przełożenia na ich fizyczne położenia na dysku SSD.
SSD (w zasadzie kontroler dysku) nie ma w ogóle pojęcia o podziale na partycje (tak samo jak o plikach, katalogach). On zna tylko bloki/strony danych.
O tym logicznym podziale wie OS i sterownik systemu plików na podstawie zapisu w MBR/GPT (który tak naprawdę jest blokiem danych na dysku).
I to OS(sterownik) dba o logiczny zapis w odpowiedniej partycji. Kontroler przekłada logiczne zapisy, które zna OS (LBA) na fizyczne, które zna tylko kontroler.
Zatem fizycznie dane na SSD mogą być jednym miejscu (bloku/stronie/komórce pamięci), a za chwilę w innym, bo taką decyzję podejmie kontroler. Dla systemu to wciąż będzie ta sama partycja, ten sam logiczny adres. (Edytowano)
Sprawa jest prosta.
Podział na partycje nie wpływa na to, że jak twierdzisz, jedna część dysku będzie zużywała się szybciej.
Bo w SSD nie ma czegoś takiego jak "część" dysku.
SSD (jego kontroler) w ogóle nie ma pojęcia o partycjach. Zapisuje dane w te "miejsca" (bloki) gdzie mu "wygodniej" (wg algorytmu optymalizacji/przeciwdziałaniu zużycia bloków komórek) na całej dostępnej na nośniku przestrzeni. Nieważne czy logicznie (o czym wie tylko OS) jest jedna partycja, czy 128.
Przez podział na partycje SSD nie ma ani mniej komórek do wyboru, bo ma tyle samo, ani nie ma większej ilości nie do końca zapełnionych komórek.
Przepraszam za poniższy przykład, może mało adekwatny, dziecinnie uproszczony ale być może pozwoli zobrazować poziomy abstrakcji i kolejne warstwy dostępu do danych, z których ta wyżej, nie wie nic o organizacji danych w tej niżej położonej:
Klient (użytkownik, proces w OS) przychodzi do biblioteki (komputer) i wyszukuje w dziale Encyklopedie (partycja) pozycję Britannica 1985-2010 (w naszym przypadku plik).
Prosi bibliotekarkę (OS) o tę pozycję. Ta sprawdza w swoim spisie (sterownik dysku w mapie alokacji plików), że to są 32 tomy o sygnaturach S5, S8, S123...(logiczne adresy, czyli LBA) i składa zlecenie do magazynu na takie sygnatury.
Magazynier (kontroler dysku SSD) nic nie wie, co reprezentują sygnatury, czy to jest jedna kilkutomowa książka, czy wiele różnych, czy mają ze sobą coś wspólnego, z jakiego działu (partycji) pochodzą, itd. Ale ma spis sygnatur i miejsce w magazynie (bloki komórek SSD), gdzie dana sygnatura się znajduje. I na tej podstawie je odnajduje. A gdzie to sobie trzyma w magazynie, to jego sprawa.
I co jakiś czas może sobie optymalizować przestrzeń w magazynie, przygotowując się na nowe pozycje (zapis), co odzwierciedla w swoim wewnętrznym spisie, czyli spisie mapowań sygnatur na miejsce w magazynie (dajmy na to regał, półka, karton). Bibliotekarka nic o tym nie wie i ją to nie obchodzi.
A to, czy jest jest potrzeba wydzielania partycji (logicznego podziału przestrzeni dyskowej), z punktu widzenia użytkownika to jest zupełnie inna sprawa, niemająca nic wspólnego z fizycznym zapisem, z fizyczną organizacją danych na SSD i w ogóle nie wpływająca na zużycie dysku.
I jeszcze jedno: podział na partycje istniał przede wszystkim dlatego, żeby obejść ograniczenia ówczesnych systemów plików,
które szybko się starzały i nie potrafiły logicznie zaadresować całej przestrzeni dyskowej, którą oferowały szybko powiększające swój rozmiar dyski.
Powody, które wymieniasz wyżej, są wtórne i czysto optymalizacyjne.
Także nie chciałbym już dyskutować z filozofem. To co piszesz, nie ma poparcia w niczym. Nie ma nic wspólnego jedną logiczną strukturą, czy jakimś systemem, czy wieloma.
Dyskusja na te tematy odbywała się nie raz. Tu przykłady wraz z linkami do literatury:
superuser.com/que…ive
minitool.com/par…tml
makeuseof.com/tag…ed/
I cytat z powyższego: "Don’t worry about “wearing out” your SSD by partitioning it, by the way. The SSD organizes files on its own regardless of the partitions, so there’s no “uneven wear” issue."
techpowerup.com/for…12/
"When you make partition, you don't actually limit SSD controller from spreading data beyond seemingly strict boundary.
When you partition HDD, those partitions are actually physically restricted on disk platters. In case of SSD, you see it as a partition, OS sees it as a partition, but SSD controller only sees entire SSD as a single block of cells that it can use and shuffle around to manage wear leveling. It needs to view it this way for efficient garbage collection and TRIMming. Otherwise, SSD would grind same partition over and over and wear it out too quickly compared to other bigger partitions"
arstechnica.com/civ…819
jmetz.com/201…ns/
Na koniec tylko dodam: nie napisałem, że był to jedyny powód partycjonowania.
W tamtych odległych czasach FAT12 wspierał dyski do 16MB, a serwerów Microsoft jeszcze nie było.
Bajki piszesz.
# df -h
System plików rozm. użyte dost. %uż. zamont. na
/dev/mapper/M2GRUPA-M2ROOT 30G 14G 16G 46% /
/dev/mapper/M2GRUPA-M2HOME 60G 47G 13G 80% /home
Tak się składa, że mam cały system z logami i /tmp na jednej partycji. Co więcej - trzyma to LVM a 1/4 dysku nawet nie jest przydzielona do dziś. Pierwotnie połowa nie była przydzielona ale system jak miał 16GB tak ma do dziś. Co więcej - partycję mam z pakowaniem w locie.
Po prawie już 2 latach nic nie spowalnia.
Po to masz właśnie trimming w kontrolerze by sam relokował używane więcej komórki a używał te które są najmniej. Kontroler nawet nie wie, jak jest podzielony dysk i dlaczego system chce ciągle zapisywać w to samo miejsce.
Oczywiście jako taki filozof nie odniosłeś się do istoty sprawy i wyjaśnień, które podałem w linkach.
Natomiast co do pobocznej kwestii: to były lata 80-te, gdy wychodziły pierwsze wersje DOS obsługujące jedynie FAT12.
Wtedy nie było jeszcze serwerów MS.
Ale możesz nie pamiętać.