poniedziałek, 21 listopada 2011

Pamięć podręczna CACHE- informacje

Pamięć podręczna CACHE- informacje

Autorem artykułu jest RatujPC


fektywność stosowania cache zależy w znacznej mierze od sposobu ułożenia kodu programów i danych pobieranych z pamięci przez mikroprocesory. Zwykle kod i dane nie są "porozrzucane" przypadkowo po całej dostępnej przestrzeni adresowej w pamięci RAM.

Większość odwołań do pamięci w trakcie wykonywania programu odbywa się przez pewien czas pracy mikroprocesora w wąskim obszarze. Zjawisko to jest określane mianem lokalności odniesień.

Lokalność odniesień można uzasadnić intuicyjnie w następujący sposób:

Z wyjątkiem rozkazów skoku i wywołania procedury, realizacja programów ma charakter sekwencyjny. Tak więc, w większości przypadków następny rozkaz przewidziany do pobrania z pamięci następuje bezpośrednio po ostatnio pobranym rozkazie. Rzadkością jest występowanie w programach długich, nieprzerwanych sekwencji wywołań procedury (procedura wywołuje procedurę itd.), a potem długiej sekwencji powrotów z procedur. Wymagałoby to ciągłego odwoływania się do oddalonych od siebie obszarów pamięci głównej, zawierających kody poszczególnych procedur. Większość pętli (konstrukcji bardzo często występujących w programach) składa się z małej liczby wielokrotnie powtarzanych rozkazów. Podczas iteracji następuje kolejne powtarzanie zwartej części programu. W wielu programach znaczna część obliczeń obejmuje przetwarzanie struktur danych, takich jak tablice lub szeregi rekordów ułożone kolejno w pamięci operacyjnej. Tak, więc procesor pobiera dane zapisane w sposób uporządkowany w małym jej fragmencie.

    Oczywiście w długim czasie wykonywania programu procesor potrzebuje dane rozmieszczone w różnych odległych miejscach pamięci. Zwykle jednak, po wykonaniu skoku następne odniesienia odbywają się już lokalnie. Przepisanie bloku kolejnych komórek pamięci do szybkiego układu cache może, więc skutecznie przyspieszyć dostęp do pamięci.

 

W stosowanych obecnie rozwiązaniach można wyróżnić następujące poziomy pamięci podręcznej.

L1 - (level 1) zintegrowana z procesorem - umieszczona wewnątrz jego struktury. L2 - (level 2) umieszczona w jednej obudowie układu scalonego mikroprocesora lub na wspólnej płytce hybrydowej (Pentium II). L3 - (level 3) występuje w bezpośrednim sąsiedztwie procesora ITANIUM.

Pamięć podręczna najniższego poziomu (L1 – Level 1) jest stosunkowo mała, ale dane w niej zgromadzone są szybko dostępne dla procesora. W wypadku braku potrzebnych w danym momencie danych (braku trafienia), następuje odwołanie do pamięci kolejnych, wyższych poziomów. Po ich odczycie następuje przepisanie do niższych poziomów, tak by były szybciej dostępne w kolejnych odwołaniach. Jeśli dane nie są aktualnie buforowane w cache, następuje odczyt bloku pamięci głównej RAM, który je zawiera i wymiana zawartości cache. Pamięci niższych poziomów mogą mieć mniejszą pojemność i być bardziej efektywne. Procesor może szybko odczytywać mniejsze porcje danych w jednym cyklu zegara. Wyższe poziomy cache mają większe pojemności, dzięki czemu odwołania do RAM mogą odbywać się rzadziej. Można też w jednym odczycie przepisać większą porcję danych z RAM.

Ważnym zagadnieniem, jest podział pamięci podręcznej na oddzielny blok dla kodu programu i oddzielny blok dla danych. W taki sposób jest podzielona pamięć poziomu L1 procesora ITANIUM - Pamięć cache poziomów L2 i L3 jest już wspólna dla rozkazów i danych. W wielu (szczególnie starszych) procesorach wykorzystuje się również jednolitą pamięć podręczną poziomu L1. Takie rozwiązanie też posiada pewne zalety. Poniżej przedstawiono korzyści płynące z zastosowania pamięci oddzielnej i jednolitej.

Pamięć oddzielna kod i dane

Eliminowana jest rywalizacja o dostęp do pamięci między układem pobierania i dekodowania rozkazów w procesorze, a jednostką wykonującą w tym samym czasie inne, poprzednio pobrane rozkazy, które mogą wymagać odczytu pewnych zmiennych z cache. Ma to szczególne znaczenie w przypadku procesorów superskalarnych, w których kilka rozkazów jest wykonywanych równolegle. Dlatego we współczesnych procesorach poziom pamięci podręcznej L1 jest zawsze dzielony na blok danych i instrukcji.

Pamięć łączna dla kodu i danych

Poprawia się współczynnik trafień w tak zorganizowanej pamięci podręcznej, dzięki temu, że  naturalnie równoważy się zapotrzebowanie na przechowywanie rozkazów i danych. Jeśli na przykład program wymaga ciągłego pobierania rozkazów i w małym stopniu korzysta z danych, dostępna pamięć podręczna zapełni się w większości rozkazami. Oddzielna cache dla danych w takiej sytuacji pozostałaby niewykorzystana. Drugą zaletą jest to, że upraszcza się układ procesora - łatwiej jest zrealizować w jego strukturze jeden bufor pamięci cache niż dwa.

 

---

Serwis Laptopów Katowice

Artykuł pochodzi z serwisu www.Artelis.pl

Pamięć komputerowa - pamięc cache, rejestratory i wiele innych

Pamięć komputerowa - pamięc cache, rejestratory i wiele innych

Autorem artykułu jest RatujPC


Pamięć komputerowa to różnego rodzaju urządzenia i bloki funkcjonalne komputera, służące do przechowywania danych i programów (systemu operacyjnego oraz aplikacji). Potocznie przez "pamięć komputerową" rozumie się samą pamięć operacyjną.

Hierarchia pamięci opiera się na „oddaleniu” od procesora, gdzie odległość określa czas dostępu do danych.

Rejestry procesora to komórki pamięci o niewielkich rozmiarach (najczęściej 4/8/16/32/64/128 bitów) umieszczone wewnątrz procesora i służące do przechowywania tymczasowych wyników obliczeń, adresów lokacji w pamięci operacyjnej itd. Większość procesorów przeprowadza działania wyłącznie korzystając z wewnętrznych rejestrów, kopiując do nich dane z pamięci i po zakończeniu obliczeń odsyłając wynik do pamięci.

Rejestry procesora stanowią najwyższy szczebel w hierarchii pamięci, będąc najszybszym z rodzajów pamięci komputera, zarazem najdroższą w produkcji, a co za tym idzie - o najmniejszej pojemności. Realizowane zazwyczaj za pomocą przerzutników dwustanowych, z reguły jako tablica rejestrów (blok rejestrów, z ang. register file).

Liczba rejestrów zależy od zastosowania procesora i jest jednym z kryteriów podziału procesorów na klasy CISC i RISC. Proste mikroprocesory mają tylko jeden rejestr danych zwany akumulatorem, procesory stosowane w komputerach osobistych - kilkanaście, natomiast procesory w komputerach serwerowych mogą mieć ich kilkaset.

Cache (pamięć podręczna) to mechanizm, w którym ostatnio pobierane dane dostępne ze źródła o wysokiej latencji i niższej przepustowości są przechowywane w pamięci o lepszych parametrach.

Cache jest elementem właściwie wszystkich systemów - współczesny procesor ma 2 albo 3 poziomy pamięci cache oddzielającej go od pamięci RAM. Dostęp do dysku jest buforowany w pamięci RAM, a dokumenty HTTP są buforowane przez pośredniki HTTP oraz przez przeglądarkę.

Systemy te są tak wydajne dzięki lokalności odwołań - jeśli nastąpiło odwołanie do pewnych danych, jest duża szansa, że w najbliższej przyszłości będą one potrzebne ponownie. Niektóre systemy cache próbują przewidywać, które dane będą potrzebne i pobierają je wyprzedzając żądania. Np. cache procesora pobiera dane w pakietach po kilkadziesiąt czy też więcej bajtów, cache dysku zaś nawet do kolejnych kilkuset kilobajtów czytanego właśnie pliku.

Pamięć operacyjna (en. internal memory, Primary storage). Jest to pamięć adresowana i dostępna bezpośrednio przez procesor, a nie przez urządzenia wejścia-wyjścia procesora. W pamięci tej mogą być umieszczane rozkazy (kody operacji) procesora (program) dostępny bezpośrednio przez procesor i stąd nazwa pamięć operacyjna. W Polsce często pamięć ta jest utożsamiana z pamięcią RAM, choć jest to zawężenie pojęcia, pamięcią operacyjną jest też pamięć nieulotna (ROM, EPROM i inne jej odmiany) dostępna bezpośrednio przez procesor. Obecnie pamięci operacyjne są wyłącznie pamięciami elektronicznymi, dawniej używano pamięci ferrytowych.

W obecnych komputerach głównym rodzajem pamięci operacyjnej jest pamięć RAM, wykonana jako układy elektroniczne, wykorzystywana przez komputer do przechowywania programu i danych podczas jego pracy.

Pamięć masowa (ang. mass memory, mass storage) – pamięć trwała, przeznaczona do długotrwałego przechowywania dużej ilości danych w przeciwieństwie do pamięci RAM i ROM. Pamięć masowa zapisywana jest na zewnętrznych nośnikach informacji. Nośniki informacji zapisywane i odczytywane są w urządzeniach zwanych napędami.

Nośniki magnetyczne:

 dyski stałe - pamięć o dostępie bezpośrednim; nośniki danych zainstalowane w macierzach dyskowychtaśmy magnetyczne - pamięć o dostępie sekwencyjnym zapisywana i odczytywana w napędzie taśmowym

Napędy optyczne:


 CD-ROMpłyty DVDpłyty Blu-Ray Diskpłyty HD DVD

Pamięci półprzewodnikowe (pozbawione części mechanicznych), współpracujące z różnymi złączami komunikacyjnymi:


 pamięci USB.karty pamięci

Pamięć offline tworzą dane, które są składowane na nośniku poza serwerem. Najbardziej popularnymi pamięciami offline są nośniki taśm i nośniki optyczne. Chociaż nośniki optyczne stają się coraz bardziej popularne, to nośniki taśm są stosowane najczęściej. Inną opcją, której można używać, są wirtualne nośniki optyczne. Wirtualnych nośników optycznych można używać do składowania obrazów wirtualnych na jednostkach dyskowych. Następnie obrazy takie można kopiować na dyski CD lub DVD albo rozpowszechniać je przez sieć.

 

---

Pomoc Drogowa Katowice

Artykuł pochodzi z serwisu www.Artelis.pl

Pamięci RAM- pamięć wirtualna

Pamięci RAM- pamięć wirtualna

Autorem artykułu jest RatujPC


to mechanizm komputerowy zapewniający procesowi wrażenie pracy w jednym dużym, ciągłym obszarze pamięci operacyjnej podczas gdy fizycznie może być ona pofragmentowana, nieciągła i częściowo przechowywana na urządzeniach pamięci masowej.

Systemy korzystające z tej techniki ułatwiają tworzenie rozbudowanych aplikacji oraz poprawiają wykorzystanie fizycznej pamięci RAM. Często popełnianym błędem jest utożsamianie pamięci wirtualnej z wykorzystaniem pamięci masowej do rozszerzenia dostępnej pamięci operacyjnej. Rozszerzenie pamięci na dyski twarde w rzeczywistości jest tylko naturalną konsekwencją zastosowania techniki pamięci wirtualnej, lecz może być osiągnięte także na inne sposoby, np. nakładki lub całkowite przenoszenie pamięci procesów na dysk, gdy znajdują się w stanie uśpienia. Pamięć wirtualna działa na zasadzie przedefiniowania adresów pamięci tak, aby "oszukać" procesy i dać im wrażenie pracy w ciągłej przestrzeni adresowej.

 

Obecnie wszystkie systemy operacyjne ogólnego przeznaczenia wykorzystują techniki pamięci wirtualnej dla procesów uruchamianych w ich obrębie. Wcześniejsze systemy takie, jak DOS, wydania Microsoft Windows[1] z lat 80. oraz oprogramowanie komputerów mainframe z lat 60. nie pozwalały pracować w środowisku z pamięcią wirtualną. Godnymi odnotowania wyjątkami były komputery Atlas, B5000 oraz Apple Lisa.

 

Pamięć wirtualna wymaga wykonania pewnych dodatkowych nakładów pracy przy próbie odczytu lub zapisu, dlatego systemy wbudowane lub szczególnego przeznaczenia, gdzie czas dostępu jest czynnikiem krytycznym i musi być przewidywalny, często z niej rezygnują za cenę zmniejszonego determinizmu.

Stronicowana pamięć wirtualna

Prawie wszystkie istniejące obecnie implementacje dzielą wirtualną przestrzeń adresową procesu na strony. Strona jest to obszar ciągłej pamięci o stałym rozmiarze, zazwyczaj 4 KB. Systemy, gdzie zapotrzebowanie na wielkość wirtualnej przestrzeni adresowej jest większe lub dysponujące większymi zasobami pamięci operacyjnej mogą używać stron o większym rozmiarze. Rzeczywista pamięć operacyjna podzielona jest na ramki, których rozmiar odpowiada wielkości stron. System operacyjny według uznania może przydzielać ramkom strony pamięci lub pozostawiać je puste.

---

Serwis Laptopów Katowice

Artykuł pochodzi z serwisu www.Artelis.pl

Dyski Twarde- pamięć masowa - część 1- historia

Dyski Twarde- pamięć masowa - część 1- historia

Autorem artykułu jest RatujPC


Historia pamięci masowych sięga połowy dziewiętnastego wieku – już wtedy używano kart perforowanych do wprowadzania danych do mechanicznych maszyn liczących.

Pierwsze elektroniczne komputery korzystały z pamięci zbudowanej z lamp elektronowych, potem zaczęły pojawiać się różnej maści pamięci magnetyczne – bąbelkowe, taśmowe, bębnowe. Pierwszy w historii twardy dysk pojawił się w 1957 roku. Wtedy to IBM zaprezentował urządzenie o nazwie RAMAC 350 – złożony z pięćdziesięciu 24-calowych dysków zespół miał pojemność 5 MB, a koszt jego rocznej dzierżawy wynosił 35 tys. dolarów; jak nietrudno policzyć, oznaczało to 7 tys. dolarów za megabajt... W epoce maszyn mainframe budowano całe „farmy dysków” z zamkniętymi w klimatyzowanych pomieszczeniach zestawami talerzy o średnicach 14 czy 8 cali, wartymi grube dziesiątki tysięcy dolarów. Pojawienie się IBM PC w roku 1981 wcale nie zapowiadało rewolucji w dziedzinie pamięci masowych – system operacyjny „prapeceta” zawierał procedury obsługi pamięci w postaci magnetofonu kasetowego, choć oczywiście istniała także możliwość korzystania ze stacji dyskietek. Lista opcjonalnego wyposażenia IBM PC/XT z roku 1983 obejmuje już twardy dysk o pojemności 5 lub 10 MB – ówczesne napędy o znajomej średnicy 5,25" miały wysokość trzech cali (podobnie zresztą, jak wczesne stacje dyskietek) i stąd właśnie określenie „full height” (współczesny czytnik CD-ROM to „half height”). W roku 1984 Western Digital skonstruował - dzierżący przez kilka lat godność „standardu przemysłowego”, zastosowany w IBM PC/AT interfejs ST506, zaś w 1986 – opracowany do spółki z firmą Compaq dobrze nam znany interfejs IDE (Integrated Drive Electronics). Mniej więcej rok później w komputerach stacjonarnych zaczęto instalować dyski 3,5" (o wysokości 1", czyli „low profile”) – dopiero potem znalazły one zastosowanie w przenośnych laptopach. Postęp technologii powodował ciągły wzrost pojemności i szybkości urządzeń, przy jednoczesnym spadku zapotrzebowania na energię, coraz mniejszej hałaśliwości i większej niezawodności. Wyniki tego wyścigu obserwujemy na co dzień.

W dwudziestoletniej historii PC najbardziej eksponowany był zawsze postęp technologii półprzewodnikowej. Postęp w innych, bezpośrednio z nią związanych dziedzinach technologii był zawsze mniej eksponowany – w ciągu tego samego czasu, gdy stopniowo dokonywano 100-krotnego przyspieszania zegara procesora, pojemność typowego dysku stałego wzrosła 1000-krotnie. Dysk stały, dopóki działa i do momentu, gdy mieszczą się na nim bez kłopotów nasze dane i programy, rzadko bywa przedmiotem szczególnego zainteresowania. Tylko w momencie zakupu staramy się uzyskać możliwy kompromis pomiędzy pojemnościami – dysku i portfela, później dysk schodzi do swojej służebnej roli. Tymczasem od pojemności i szybkości dysku zależy wydajność komputera i wygoda jego użytkowania, a niezawodność dysku to w wielu przypadkach sprawa nie tylko bardzo ważna, ale wręcz kluczowa. Przeciętny użytkownik komputera traktuje dysk jako „czarne pudełko” zdolne do zapamiętania pewnej ilości danych – im więcej, tym lepiej. Bardziej dociekliwi zwracają uwagę również na jego parametry wydajnościowe – średni czas dostępu do danych oraz szybkość odczytu i zapisu. Parametry eksploatacyjne każdego urządzenia wynikają z jego konstrukcji, dlatego najdociekliwsi użytkownicy lubią wiedzieć również, co jest wewnątrz „czarnego pudełka” i jak to działa.

---

Pomoc Drogowa Katowice

Artykuł pochodzi z serwisu www.Artelis.pl

Monitory LCD z matrycą LEDową

Monitory LCD z matrycą LEDową

Autorem artykułu jest Mastiff


Póki co technologię LED najbardziej propagują duzi gracze: Sharp, Samsung i Philips. Swoje modele oznaczone jako LED mają również inne firmy m.in. LG i Grundig, ale jak na razie ich oferta w polskich sklepach nie jest zbyt duża.

Przed zdecydowaniem się na monitor warto przeczytać recenzje specjalistów, opinie użytkowników (tu należy zawsze uważać, bo nie ma gwarancji, ze nie piszą ich pracownicy firm zajmujących się sprzedażą) i wybrać się samemu do sklepu. Wielkie markety z elektroniką sprawdzają się całkiem nieźle, ale nie należy sugerować się czasem gorszą jakością tego, co jest stale wyświetlane. Gdy upatrzysz sobie jakiś model, poproś pracownika, by podpiąć tylko do niego (bez rozdzielania sygnału) odtwarzacz filmów lub konsolę poprzez HDMI – dopiero wtedy zobaczysz, jak naprawdę prezentuje się obraz.

Sam zakup może się odbyć zarówno w tym sklepie, jak i w Internecie. Sam stosuję zwykle tę drugą metodę: sprawdzam, co mi się podoba w klasycznym salonie, ale zakupy robię w sieci. Tak jest taniej, a poza tym zawsze istnieje możliwość zwrotu sprzętu wciągu 10 dni bez podawania przyczyny. Obecnie wszystkie monitory LCD mają gwarancję producenta na okres 24 miesięcy.

Czerń w LCD

Tyle tylko, że… zdecydowana większość “monitorów LED” na rynku na to nic pozwala. Producenci muszą tu bowiem wybierać pomiędzy dwiema technologiami: LED edge i LED RGB. Ta pierwsza pozwala na umieszczenie podświetlających diod na bocznych krawędziach, dzięki czemu można zmniejszyć grubość sprzętu nawet do jednego centyme-tra. Żeby jednak poczuć większą różnicę jakościową względem starszych modeli, trzeba zainteresować się LED RGB.

Więcej czerni w czerni
Dopiero ta technologia pozwala na rzeczywiste poprawienie jakości obrazu, gdyż diody włączane i wyłączane są miejscowo. Jeśli w jakimś miejscu na ekranie powinna być czarna plama, po prostu pod nią nic się nie świeci. Zyskuje na tym również liczba możliwych do wyświetlenia kolorów, których jest więcej niż w przypadku zwykłych LCD (pytanie tylko, kto gołym okiem jest w stanie zauważyć różnicę). Z LED RGB są jednak dwa problemy. Przede wszystkim przy dość silnym oświetleniu zewnętrznym (np. graniu na konsoli w środku dnia bez zasłoniętych okien) kontrast obrazu może pozostawiać nieco do życzenia.

px2370features02

Drugi problem LED RGB polega na tym, że odbiorniki z tą technologią… są grubsze, praktycznie tak samo jak zwykłe LCD. Takie “tłuściochy” zaś prezentują się zdecydowanie gorzej w reklamach, więc nie ma ze strony marketingowej zbytniego na nie parcia. Inna rzecz, że do tej pory raczej nie spotkałem się z narzekaniem na grubość nowych monitorów – dla każdego, kto pamięta ogromne pudła modeli kineskopowych, zwykły LCD to już i tak rewelacyjna oszczędność miejsca.

---

Marek Tokarzewski IGNS.pl

Artykuł pochodzi z serwisu www.Artelis.pl

Jaką drukarkę wybrać do biura?

Jaką drukarkę wybrać do biura?

Autorem artykułu jest Natalia Rostworowska


Drukarka w biurze, mimo tego, że coraz częściej przechowujemy dokumenty w formie plików, to ciągle urządzenie niezbędne. Nawet moda na ekologię nie jest wstanie zmienić przyzwyczajenia, zgodnie z którym większość z nas woli przeglądać dokumenty na papierze, niż czytać je na ekranie komputera.

Pamiętajmy jednak, że zakup drukarki to nie tylko jednorazowy wydatek, ale również stałe koszta związane z jej codzienną eksploatacją.  Jak podaje CRN Polska – portal informacyjny z rynku IT - tylko 10 proc. firm działających na naszym rynku zdaje sobie sprawę z realnych kosztów druku, a te mogą stanowić nawet 11% miesięcznych wydatków całej firmy. Poniżej podajemy kilka przydatnych wskazówek, jakie warto uwzględnić przy wyborze drukarki.  

Drukarka atramentowa czy laserowa?

Drukarki atramentowe dostępne są w bardzo atrakcyjnych cenach, jednak ich koszt eksploatacyjny jest dość wysoki. Urządzenia te umożliwiają druk w kolorze i nieźle radzą sobie z tekstem, niestety są mało ekonomiczne. Zwykły zasobnik z atramentem za około 50 zł wystarcza co najwyżej, na kilkaset stron. Drukarka atramentowa może okazać się dobrym rozwiązaniem w zastosowaniu domowym, gdy drukujemy sporadycznie, na ogół niewielką liczbę stron. Do celów biurowych zdecydowanie lepiej sprawdzi się drukarka laserowa. Jest droższa od atramentowej, za najtańszy model zapłacimy 350–370 złotych, ale znacznie tańsza w codziennej eksploatacji.  Drukarki laserowe cieszą się z roku na rok coraz większą popularnością także wśród użytkowników indywidualnych. Poza niższymi kosztami eksploatacji, umożliwiają wysoką prędkość wydruku: od kilkunastu do kilkudziesięciu stron na minutę (modele po kilka tysięcy złotych są w stanie wydrukować nawet około 50 stron w minutę). Wydruku z drukarki laserowej możemy użyć od razu, co jest niewątpliwie zaletą w sytuacji, gdy liczy się czas. W drukarce atramentowej musimy odczekać chwilę, aby wysychający tusz nie rozmazał tekstu. Do uzyskania optymalnej jakości wydruku nie potrzebujemy specjalnego papieru, co zazwyczaj jest niezbędne w przypadku drukarek atramentowych.

biuro

Co należy brać pod uwagę przy zakupie drukarki?

Decydując się na konkretny model drukarki powinniśmy wziąć pod uwagę kilka kryteriów. Po pierwsze, zastanówmy się nad ilością stron, które będziemy drukować w skali miesiąca i do tej wielkości dopasujmy wydajność sprzętu. Pamiętajmy, że wraz ze wzrostem wydajności drukarki, spadają jednostkowe koszty eksploatacyjne (całkowity koszt wydruku strony). Czy potrzebny nam będzie druk kolorowy? W jakim stopniu zależy nam na jakości wydruku? Ile osób będzie korzystało z drukarki i do jakich maksymalnych obciążeń powinna być dostosowana? Na końcu przemyślmy czy potrzebna jest nam jedynie funkcja drukowania, a może skanowanie, kopiowanie i faksowanie również się przyda. Warto także wcześniej zaplanować budżet na zakup i eksploatację. Jeśli jasno określimy te kryteria, to spośród szerokiej oferty urządzeń dostępnych na rynku pod uwagę weźmiemy kilka, najwyżej kilkanaście. Na końcu zostaje nam porównanie kosztów zakupu drukarki oraz cen materiałów eksploatacyjnych.

Zamienniki czy materiały oryginalne

Ceny drukarek z roku na rok spadają.  Pamiętajmy jednak, że koszt zakupu sprzętu stanowi zaledwie 5-10% całkowitych kosztów użytkowania. W sytuacji obniżających się cen urządzeń drukujących, materiały eksploatacyjne stają się głównym źródłem dochodów producentów. W tym przypadku warto zastąpić kosztowne tonery znacznie tańszymi zamiennikami.

 - Markowe materiały alternatywne w żaden sposób nie wpływają, na jakość wydruku, zachowując taką samą lub nawet większą wydajność od materiałów producenta drukarki. Zastosowanie tonera alternatywnego o podwyższonej wydajności pozwala wydrukować nawet o 25% stron więcej niż cartridge producenta drukarki – zapewnia Michał Prejzner z firmy Laserton, produkującej zamienniki popularnych cartridge’y laserowych. W przypadku niewielkich urządzeń laserowych wystarcza go na wydrukowanie około 2 500 stron zwykłego tekstu na kartkach o formacie A4 - dodaje Prejzner. Dla przykładu, cena cartridge’a firmy Laserton o wydajności 2 500 stron to 61 zł, podczas gdy za oryginał zapłacimy (wydajność 2 000 stron) około 230 zł.

Stosowanie markowych alternatywnych materiałów eksploatacyjnych, pochodzących od znanych producentów nie stanowi zagrożenia dla sprzętu. A w sytuacji pojawienia się kłopotów nie zostaniemy pozbawieni pomocy technicznej. Dla przykładu Laserton udziela klientom 12-miesięcznej gwarancji, umożliwiając naprawę urządzenia, jeśli powodem jego uszkodzenia było zastosowanie ich produktu. Oferuje też przejęcie zobowiązania serwisowych na urządzenia, w których stosowane są ich cartridge. – Dodatkowo materiały alternatywne są przyjazne środowisku. I jest to ważny argument przemawiający za ich stosowaniem! Większość wkładów do drukarek laserowych jest refabrykowana, co oznacza, że po naprawie i napełnieniu wraca z powrotem na rynek- podkreśla Prejzner.

Urządzenia wielofunkcyjne dla małych i średnich firm

 

Biuro

Przy wyborze sprzętu do drukowania warto zastanowić się czy nie będą potrzebne nam także dodatkowe funkcję. Takie możliwości oferują laserowe urządzenia wielofunkcyjne (Multi-Function Printer). Zakup urządzenia wiąże się z większym kosztem dla firmy. Wysokiej jakości sprzęt można nabyć w cenie około 1 000 złotych. Warto jednak przy tym zauważyć, że osobny zakup drukarki, faksu, kopiarki i skanera wyniesie nas znacznie więcej niż jednorazowy zakup urządzenia wielofunkcyjnego. MFP powoli wypierają z rynku tradycyjne drukarki. Tendencja ta widoczna jest na rynku amerykańskim, gdzie w związku z coraz większą popularnością urządzeń wielofunkcyjnych sprzedaż drukarek nieustannie maleje. W 2008 roku sprzedano tam około 17,6 mln drukarek atramentowych, z czego 12,3 mln to urządzenia wielofunkcyjne.

Przemyślany zakup

Wybór odpowiedniej drukarki do biura nie jest zadaniem trudnym. Jeśli jasno określimy kryteria, to spośród szerokiej oferty urządzeń dostępnych na rynku pod uwagę weźmiemy kilka, najwyżej kilkanaście modeli. Pamiętajmy, aby poza kosztem zakupu drukarki uwzględnić też wydatki związane z jej codzienną eksploatacją, w tym cenę materiałów eksploatacyjnych. Dobrze przemyślanego zakupu z pewnością nie pożałujemy.

---

Autor: Natalia Rostworowska

Artykuł pochodzi z serwisu www.Artelis.pl

Poradnik sprzętowy - część pierwsza: Jak kupować notebooki?

Poradnik sprzętowy - część pierwsza: Jak kupować notebooki?

Autorem artykułu jest OPCJA


Magazyny komputerowe i portale internetowe pełne są rankingów, zestawień i rad, ale mimo to kupno laptopa pod swoje potrzeby wcale nie jest proste.

Jeśli chcesz kupić notebooka, który będzie dla Ciebie odpowiedni, a jednocześnie nie przepłacić, czeka Cię nie lada łamigłówka. Aby ułatwić wybór, postanowiliśmy przygotować mały poradnik na ten temat. Dziś część pierwsza o tym, gdzie kupować sprzęt.

Trudny początek

notebookTypowym pierwszym krokiem przy zakupie komputera bywa porównanie cen produktów w serwisach typu Ceneo, czy Nokaut. Jednak nie sztuką jest zakup o 5% tańszego sprzętu, który będzie o 30% droższy od tego, czego potrzebujesz. Różnica tkwi w cenie gadżetów, które nie są Ci do niczego potrzebne, a nawet mogą utrudniać pracę.

Drugi standardowy krok, to prośba o radę znajomych fascynatów komputerów. Przy dzisiejszym stopniu skomplikowania sprzętu, większość ludzi „znających się na informatyce” będzie mogła doradzić Ci zakup sprzętu, tak samo trafnie, jak dobra księgowa może zaplanować budżet dla średniej wielkości państwa :)

Jak w takim razie się do tego zabrać? Warto najpierw zastanowić się, do czego będzie używany zakupiony sprzęt, jaki jesteśmy skłonni przeznaczyć na niego budżet i gdzie chcemy dokonać zakupów.

Supermarkety dla tych, co chcą bardzo tanio.

Często dość tanio możemy znaleźć sprzęt w sieciach handlowych, szczególnie na wyprzedażach. Niestety w sklepach sieciowych i supermarketach znajdziemy tylko jeden typ sprzętu: z bardzo niskiej półki. Oferowany wybór towaru jest dobierany tylko z uwzględnieniem jednego kryterium: niskiej ceny. Nawet, jeśli znajdziesz tam sprzęt z wyższej półki, to będą to zwykle 1-2 egzemplarze trzymane „na pokaz”. W supermarkecie masz więc minimalny wybór i sprzęt, który nie wiadomo jak długo leżał na wystawie.

Sklepy internetowe

Oferują olbrzymi wybór i bardzo niskie ceny. Jeśli dokładnie wiemy, czego potrzebujemy i nie liczymy na żadną obsługę posprzedażową, to jest to dobre rozwiązanie. Pamiętajmy jednak, aby nigdy nie wybierać najtańszych sklepów! One zwykle działają na granicy swoich kosztów i oszczędzają na wszystkim. Wybierają najtańszych kurierów, słabo obsługują reklamacje, mają niski poziom obsługi klienta.

Poza tym, przy zakupach internetowych, jeśli coś jest nie tak, to zaczynają się schody. Zwykle nawet nie można pójść do sklepu i porozmawiać o problemie. A przecież czasem wystarczy, że dostawca „krzywo” rzuci paczką... Praktycznie nie da się wszystkiego przetestować przy odbiorze, bo rzadko kiedy zdążymy przy kurierze choćby rozpakować sprzęt.

Wyspecjalizowane sklepy i firmy komputerowe

W takim miejscu spotkasz najbardziej wykwalifikowany personel i najlepszą obsługę posprzedażową. Większość firm kupuje u tych samych dystrybutorów i dlatego każda z nich zamówi dla Ciebie w zasadzie każdy sprzęt, jaki tylko jest na rynku. Jeśli kupujesz w firmie, która nie prowadzi magazynu, możesz mieć pewność, że nikt nie zaproponuje Ci zalegającego sprzętu, którego nikt nie chce wziąć. Ponadto możesz od razu poprosić o dozbrojenie komputera w dodatkowy RAM, dysk SSD czy instalację oprogramowania. Jakie są wady? Przy sprzęcie z niższej półki, zwykle będzie on parę procent droższy niż w sklepie internetowym. Dlatego takie rozwiązanie polecamy przede wszystkim wtedy, gdy kupujemy sprzęt trochę droższy – gdzie pewność i odpowiedni dobór mają duże znaczenie. Za 1500 zł można kupić sprzęt w sklepie internetowym, natomiast taki za 5000 zł – zdecydowanie odradzamy.

W kolejnych artykułach omówimy urządzenia i funkcjonalności w laptopach.

---

www.opcja.pl

Artykuł pochodzi z serwisu www.Artelis.pl

Dyski twarde i ich nieprzecenione zalety

Dyski twarde i ich nieprzecenione zalety

Autorem artykułu jest Karol Stopka


Bardzo ważną rolę w informatyce odgrywają dyski twarde, które są trwałą pamięcią komputera i dzięki którym możemy zapisać na komputerze wiele przydatnych, a czasem koniecznych informacji.

dysk twardyDzisiejszy świat rozwija się w niezwykle szybkim tempie. Coraz częściej zastanawiamy się, co jeszcze może powstać, aby ułatwić nam życie. Informatyka jest jedną z dziedzin, która pozwala nam bardzo manipulować rozwiązaniami. Na tym polu wiele możemy zdziałać.  Obecnie pamięć komputera to jedna z najważniejszych rzeczy, gdyż technologia jest tak rozwinięta, że czasem potrzebujemy, żeby nieograniczona liczba wiadomości została zapamiętana. Taka pamięć składa się przede wszystkim z dysków magnetycznych, na których zapisywane są informacje, których potrzebujemy, ale również z głowicy, która nie tylko zapisuje, ale również odczytuje dane zawarte na dysku.

Zapisane w pamięci komputera dane, powinny być dostępne do odczytu w jak najszybszym czasie. Dlatego dyski twarde są stale udoskonalane, by zapewnić jak największy komfort pracy. Dzięki temu, że pamięć komputera może być naprawdę duża możemy cieszyć się ogromną pomocą, jaka nam przynosi takie urządzenie. Dzisiejszy świat pozwala na wybranie odpowiedniej wielkości pamięci do naszego komputera i dlatego sami możemy zdecydować jak dużo może wiedzieć nasz komputer. 

Dyski twarde są konieczne, aby można było w odpowiedni sposób korzystać z komputera. Człowiek jest omylny i często wiele rzeczy zapomina, dlatego konieczne jest skorzystanie z komputera, aby przypominał nam lub przechował dla nas konieczne informacje. Dawniej stosowane były dyski miękkie, jednakże posiadały one znacznie mniej miejsca do zapisu niż dyski twarde, których precyzja zapisu jest tak ogromna, że wypierają one z rynku inne formy pamięci. Ogromne możliwości, jakie posiadają takie urządzenia sprawiają, że możemy wykorzystywać je do wielu czynności. Odpowiednie dobranie wielkości pamięci sprawia, że komputery staja się swoistą przechowalnia wiadomości, gdyż nie musimy już zastanawiać się gdzie przechowywać nośniki pamięci, które nie miały tak wielkiej pojemności i nie były odpowiednim zabezpieczeniem zawartych na nich informacji. Dzisiaj nie musimy się za bardzo przejmować, gdyż dyski twarde naszych komputerów są niezwykle trwałe, choć komputer to tylko maszyna i czasem może ulec awarii. 

Stworzenie tak trwałej pamięci, jaką posiada komputer przyniosło nam wiele wspaniałych rozwiązań, gdyż zastosowanie komputera i jego pamięci do wielu czynności sprawia, że my czujemy się znacznie bardziej wolni. Komputery, dlatego stosowane są niemalże w każdej dziedzinie, gdyż pamięć ich znacznie ułatwia nam wykonywanie obowiązków. Dzięki mądrym ludziom i stworzeniu odpowiedniej pamięci komputerowej możemy cieszyć się z tego, że takie niewielkie urządzenie jest w stanie zapamiętać ogromne ilości informacji w zależności od tego, jakie dyski wybierzemy. Coraz częściej komputery zastępują człowieka, gdyż zastosowana w nich pamięć jest bardziej niezawodna niż pamięć człowieka. 

--- Artykuł pochodzi z serwisu www.Artelis.pl

Poradnik sprzętowy - Notebooki. Część druga: Co wybrać?

Poradnik sprzętowy - Notebooki. Część druga: Co wybrać?

Autorem artykułu jest OPCJA


W pierwszej części serii o notebookach skupiliśmy się na miejscu dokonania zakupu. Teraz zastanowimy się, co warto kupić i na jakie parametry zwrócić uwagę.

Co kupić?

NotebookiTo zadanie przypomina partyjkę Masterminda. Pamiętacie tę grę? U dystrybutora dostępnych od ręki jest ponad ćwierć tysiąca modeli. A jednak, gdy chcemy znaleźć model idealny dla nas, to okazuje się, że do wyboru są nie więcej niż dwa, a często zdarza się, że trzeba obniżyć wymagania, bo żaden z nich nie spełni ich wszystkich.

Warto zastosować metodę eliminacji i odpowiedzieć sobie na kilka kluczowych pytań, które ograniczą wybór.

Notebook czy netbook?

Netbooki są tanie, malutkie i milutkie. Niektóre z nich mogą pochwalić się długim czasem pracy na bateriach. Jednak do codziennej pracy, bardziej skomplikowanej niż sprawdzenie poczty i obejrzenie strony www, zdecydowanie potrzeba nam notebooka. To trochę jak porównanie samochodu ze skuterem. Dlatego tym razem skupimy się na notebookach.

Cena

Oczywiście zawsze staramy się kupować jak najtaniej, ale warto na początek wyznaczyć, gdzie leży granica akceptowalnej przez nas ceny. To od razu mocno ograniczy nam wybór. Przykładowo: u jednego z naszych dystrybutorów z 262 modeli dostępnych od ręki, tylko 44 można znaleźć w kwocie poniżej 2.000 zł netto. Pomijając netbooki, rozpiętość cen sięga od 1.400 do ponad 10.000 zł netto.

Wielkość matrycy LCD

Jeśli pracujemy na notebooku głównie stacjonarnie, to warto jest kupić matrycę 15,4” lub większą. Nawet, jeśli podłączymy dodatkowy monitor, to docenimy wielkość matrycy. Natomiast, jeśli komputer ma być często noszony, to warto rozważyć mniejszą matrycę. Do 13,3” można jeszcze w miarę wygodnie pracować, natomiast przy mniejszych ekranach, do dłuższej pracy, warto podłączyć zewnętrzny monitor. Oczywiście, im mniejszy ekran, tym bardziej przenośny sprzęt. Jeśli, i w domu, i w pracy mamy zewnętrzne monitory oraz nosimy notebooka codziennie, to można kupić nawet 12” i mniejszy.

Rozdzielczość matrycy LCD

Owszem, praktycznie każda „grafika” w notebooku obsłuży każdy współczesny monitor, ale... w różnych notebookach ta sama wielkość matrycy może mieć różną rozdzielczość.

Przykładowo matryce LCD 15,6” mogą mieć rozdzielczość od 1366 x 768 pikseli do 1920 x 1080 pikseli. Matryce 14,1” mają od 1280 x 800 pikseli do 1440 x 900 pikseli. Przy okazji matrycy, warto zauważyć, że na rynku są matryce tzw. błyszczące i matowe. Te pierwsze lepiej odwzorowują kolory (ważne szczególnie przy obróbce grafiki czy zdjęć), te drugie zaś lepiej nadają się do pracy na otwartej przestrzeni (mniej odbłysków). Przy zwykłej pracy biurowej, prawdopodobnie nie poczujesz różnicy.

Waga

To rzecz krytyczna w momencie, gdy dużo notebooka nosimy. Jeśli nie, lub jeśli jeździmy tylko samochodem, nie ma ona tak wielkiego znaczenia.

Małe notebooki potrafią ważyć zaledwie ok. 1kg, lekkie notebooki z matrycą 14” - ok. 2kg (np. Thinkpad T410s – tylko 1,79kg), natomiast duże notebooki mogą ważyć dobrze ponad 3kg. Jeśli planujesz dużo chodzić ze sprzętem i uważasz, że „dasz radę”, to spróbuj wziąć na 5-kilometrową wycieczkę po mieście 3kg cukru... Pamiętajmy, że wielu producentów sprzętu podaje wagę netto, czyli bez baterii.

System operacyjny

Jeśli jesteśmy przyzwyczajeni do popularnych „Windowsów”, a jednocześnie nie posiadamy licencji BOXowej którą chcemy przenieść z innego komputera, to wybierajmy notebooki z systemem Windows 7. Najlepiej z wersją Professional, ponieważ Home ma ograniczone możliwości. Jeśli mamy już licencję Windows lub wolimy Open Source (np. Linuxa), to wybierzmy notebooka bez systemu – będzie ok. 200 zł tańszy. Oczywiście możliwe jest dokupienie wersji OEMowej Windowsów do notebooka bez systemu, ale to powiększy nam koszt sprzętu o ok. 100 zł w stosunku do analogicznego modelu z zainstalowanym systemem.

Bateria

Baterie o wysokiej pojemności (zwykle można je poznać po tym że mają 6 lub rzadziej - 8 celi) w połączeniu z energooszczędnym procesorem potrafią zapewnić bardzo długi czas pracy na bateriach – nawet do 8 godzin. Większość notebooków jednak może pracować 3-4 godziny bez podłączenia do źródła zasilania. Jeśli nie potrzebujesz często pracować na bateriach, nie warto przepłacać za sprzęt, który potrafi długo na nich działać.

Pamięć RAM

2GB to jest dzisiaj praktycznie minimum. Trochę droższe notebooki mają 3GB, a te lepsze – nawet 4GB. Pamiętajmy jednak, że pamięć to jest element, który najłatwiej w notebooku rozszerzyć. Duża część notebooków pozwala to zrobić nawet bez ich rozkręcania. Nie przejmuj się, jeśli upatrzony model ma za mało pamięci. Często można od razu przy zakupie w sklepie poprosić o jej rozszerzenie, nie jest to zbyt kosztowne. Warto tylko zwrócić uwagę na dwie rzeczy: czy jest w notebooku wolny slot na pamięć (pozwoli na dołożenie pamięci zamiast wymiany) oraz, jaka jest maksymalna wielkość pamięcie, którą może obsłużyć płyta główna. Większość współczesnych notebooków ma jeden wolny slot i maksymalnie może obsłużyć do 8GB.

Dysk twardy

Typowa dziś wielkość to 320GB. W większości notebooków dysk również dość łatwo się wymienia. Ciekawą alternatywą są dyski SSD (czyli takie bez części mechanicznych). Są prawie niezniszczalne, kompletnie bezgłośne i mają niższy pobór energii. Ich wadą natomiast jest cena oraz stosunkowo małe pojemności. Jeśli dużo podróżujesz, zależy Ci na długiej pracy na bateriach i bezpieczeństwie danych, jest to idealne rozwiązanie. Co prawda mało komputerów ma je zainstalowane standardowo (i takie laptopy kosztują raczej powyżej 5.000 zł netto – np. niektóre Thinkpady serii T), ale za kilkaset złotych można zakupić dysk SSD i użyć zamiast oryginalnego. Ten oryginalny przy okazji można umieścić w kasetce i... wykorzystać do przechowywania danych czy backupów.

Karta graficzna

Jeśli nie planujesz grać ani projektować grafiki 3D, to wystarczy Ci karta graficzna zintegrowana z płytą główną. Jest tańsza, mniej awaryjna, a ponadto ma sporo mniejszy pobór mocy, co wydłuża czas pracy na bateriach. Jej wadą jest niestety to, że zabiera trochę pamięci operacyjnej systemowi. Jest też mniej wydajna, czego przy pracy biurowej, czy obróbce zdjęć nie odczujemy. Czasem można znaleźć notebooki, które mają... dwie „grafiki” – jedną zintegrowaną do długiej pracy na bateriach i drugą na karcie do grania i innych szaleństw.

Procesor

Tu zwracamy uwagę na dwie rzeczy: energooszczędność (gdy zależy nam na długiej pracy na bateriach) i wydajność. Jeśli zależy nam na niskim poborze mocy i niskiej cenie – wybierajmy procesory z serii Intel Core i3.

Jeśli bardzo zależy nam na wydajności – Intel Core i7. Jednak zwykle najlepszym kompromisem będzie Intel Core i5. Jeśli masz wątpliwości – kup notebooka z właśnie takim procesorem. Do rozważenia są również starsze modele Inteli oraz procesory AMD. Jednak polecamy je tylko wtedy, gdy niska cena jest dla nas głównym parametrem, który bierzemy pod uwagę. Pamiętajmy też, że im bardziej energooszczędny procesor, tym komputer będzie cichszy i bardziej odporny na przegrzanie.

W kolejnym, ostatnim odcinku dotyczącym notebooków opowiemy o dodatkach i udogodnieniach stosowanych w sprzęcie przenośnym.

---

www.opcja.pl

Artykuł pochodzi z serwisu www.Artelis.pl

64-bitowa wydajność

64-bitowa wydajność

Autorem artykułu jest Marcin Ch


Wiele osób zastanawia się, czy procesor 64-bitowy może wydajnie emulować 32-bitowe środowisko. W przypadku architektury AMD64 nie jest to jednak emulacja, tylko osobny tryb pracy procesora, o czym świadczą wyniki testów wydajności przeprowadzonych w różnego rodzaju aplikacjach.

W trybie emulacji żaden z procesorów nie działa z podobną szybkością co pierwowzór o podobnym stopniu zaawansowania. Oczywiście, jeśli na współczesnym pececie uruchomimy emulator ATARI ST czy Commodore Amiga, to uzyskamy właściwą wydajność. Wynika to jednak z faktu, że uruchamiamy programy napisane dla 20-letnich komputerów, a więc o znacznie mniejszym stopniu skomplikowania. Intel Itanium, mimo znacznie większej mocy obliczeniowej, pozbawiony był początkowo możliwości wykonywania kodu x86. Wszystkie programy działały na nim kilkakrotnie wolniej niż na dostępnych w tym czasie procesorach 32-bitowych.

Najlepsze rezultaty pod względem wydajności osiągnęli twórcy procesora Crusoe firmy Transmeta. Był on jednak od początku zaprojektowany tak, by szybko wykonywał instrukcje występujące w innych architekturach dzięki wykorzystaniu sprzętowego przekształcania kodu (code morphing). Niestety, z powodu braku większego zainteresowania producentów komputerów i odbiorców Transmeta zaprzestała opracowywania kolejnych procesorów. Jednak ze względu na bardzo dobre proporcje między wydajnością a poborem energii Crusoe znajduje zastosowanie w niektórych specjalizowanych produktach, np. ultraprzenośnych notebookach o niskiej wydajności.

Bez emulacji

Wróćmy jednak do architektury AMD64 i wyniku testów jej wydajności. AMD opracowując jej założenia, usunęło z projektu moduły procesora niezbędne do działania aplikacji w trybie Real 8086 oraz Virtual 8086. Dzięki temu uproszczono schemat ideowy, ale ceną jest brak możliwości włączania programów 16-bitowych w trybie 64-bitowym. Co więcej, aplikacje 32-bitowe uruchamiane są w odseparowanych maszynach wirtualnych. Z jednej strony każda z nich może korzystać z całej 32-bitowej przestrzeni adresowej, z drugiej – żadna aplikacja nie powinna zakłócić działania innej.


Takie rozwiązanie wydaje się dość naturalne – konieczność zachowania zgodności z 30-letnimi programami nie jest obecnie najważniejsza, gdyż większość aplikacji jest już dostępna w nowocześniejszych wersjach i lepiej wykorzystuje sprzęt. Niestety, przywiązanie programistów do znanych rozwiązań powoduje, że część 32-bitowego oprogramowania korzysta z 16-bitowych programów instalujących. W efekcie nie ma możliwości uruchomienia go w 64-bitowym systemie.

Na szczęście autorzy najważniejszych programów dostrzegli korzyści z dostępu do większej liczby rejestrów i przygotowują aplikacje wykorzystujące możliwości AMD64. Warto podkreślić, że firma Sun dość szybko przygotowała 64-bitową wersję swojej 8 wirtualnej maszyny Javy, która jest około 40 proc. wydajniejsza od wersji 32-bitowej. Różnice szybkości działania zależą od złożoności rozwiązywa- nego zagadnienia. Niektóre, np. wyznaczanie szybkiej transformaty Fouriera, działają tak samo, inne wykazują 30-proc. przyspieszenie. Ale są również takie jak rozwiązywanie problemów numerycznych metodą Monte Carlo, które przyspieszają dwukrotnie, niezależnie od wielkości wykorzystanego zbioru danych.

Podobnej różnicy wydajności można się spodziewać po uruchomieniu aplikacji napisanej dla platformy NET. Na przykładzie programu Paint.NET w wersji 3.01 widać ponad 30-proc. wzrost szybkości działania aplikacji w systemie 64-bitowym w porównaniu z aplikacją uruchomioną w systemie 32-bitowym. Co istotne, poprawa wydajności nie wymaga od programisty najmniejszej modyfikacji kodu ani nawet zmiany ustawień kompilatora.

 

Źródło ,http://telewizjasatelitarnaikomputery.blogspot.com/

 

--- Artykuł pochodzi z serwisu www.Artelis.pl

Bezpieczne użytkowanie laptopów

Bezpieczne użytkowanie laptopów

Autorem artykułu jest pacman82


Laptopy z uwagi na swoje właściwości są coraz częściej używanym sprzętem komputerowym. Jeszcze kilkanaście lat temu większość optowała przy zwykłych stacjonarnych pecetach. W chwili obecnej z uwagi na niskie ceny laptopów coraz więcej osób decyduje się właśnie na ich zakup. Warto zatem dbać o niego

Laptop jest urządzeniem bardzo delikatnym, a co za tym idzie szczególnie narażonym na różnego rodzaju uszkodzenia. Dodatkowo naprawa laptopów często kosztuje dość sporo dlatego warto stosować się do kilku porad związanych z eksploatacją laptopów.

Najczęściej „łamanym zakazem” przez posiadaczy laptopów jest spożywanie posiłków oraz picie napojów podczas pracy z komputerem. W takiej sytuacji szczególnie łatwo o wypadek, a nie ma nic gorszego niż zalany laptop. Często zalanie laptopa wiąże się z wyprawą do serwisu i kosztowną usługą jaką jest naprawa laptopów.

Jeżeli dojdzie do sytuacji kiedy zalejemy laptopa powinniśmy szybko wykonać kilka czynności aby zniwelować skutki wypadku. Najważniejsze aby odchylić ekran oraz laptopa skierować klawiaturą do podłogi. Pozwoli to na uratowanie płyty głównej, która może nie zostanie zalana. Równocześnie odłączamy zasilanie i wyciągamy baterię. Laptopa w pozycji odwróconej powinniśmy pozostawić na około dobę, tak aby cała ciecz zleciała z niego lub wyparowała. W żadnym wypadku nie włączajmy komputera bez konsultacji z fachowcem. Możemy doprowadzić do zniszczenia elementów, których naprawa czasami może przewyższać wartość naszego sprzętu.

Również częste potrząsanie komputerem w sytuacji kiedy nie chce działać nie przyniesie poprawy naszego położenia, a wręcz przeciwnie. Laptop w który uderzamy lub którym szturchamy jest narażony na liczne uszkodzenia, o których nawet nie musimy wiedzieć, a do których często dochodzi wewnątrz sprzętu.

Wielu użytkowników całkowicie zapomina o baterii w laptopie. W momencie kiedy nie korzystamy z naszego laptopa pozostawiamy często go włączonego. Spore grono posiadaczy notebooków pracuje na trybie baterii, przez co sami niszczą swój sprzęt. Użytkowana do granic możliwości bateria może rozładować się do zera, a co za tym idzie całkowicie ulec zniszczeniu.

--- Artykuł pochodzi z serwisu www.Artelis.pl

Rozwiązywanie problemów - Problemy z matrycą LCD w laptopie

Rozwiązywanie problemów - Problemy z matrycą LCD w laptopie

Autorem artykułu jest Filip Adam


Z czasem mogą powstać problemy z matrycą w Twoim laptopie, które utrudniają jego używanie. Istnieje wiele problemów, które mogą spowodować popsucie się czegoś jak równie wiele metod na naprawienie tych problemów.

Istnieje wiele problemów, które mogą spowodować popsucie się czegoś jak równie wiele metod na naprawienie tych problemów. Pierwszym krokiem jest identyfikacja problemu.

Ekran botowania (ten, który wyświetla logo producenta) jest pierwszym miejscem w którym powinniśmy szukać problemu. Jeśli po włączeniu widzisz linie może to oznaczać bród lub wodę za ekranem. Jeśli kolory nie są prawidłowe problem może tkwić w podświetlaniu matrycy lub karcie graficznej.

Jeśli ekran się nie włącza, posłuchaj czy pracuje wentylator. Brak dźwięku wentylatora może oznaczać, iż jest on popsuty lub źródło zasilania uległo awarii.

Czasem obraz na ekranie może być przygaszony. Jeśli możesz podłącz laptop do zewnętrznego monitora, aby sprawdzić czy problem się powtarza. Jeśli obraz wyświetlany na zewnętrznym monitorze nie jest przygaszony problem może tkwić w płycie głównej ekranu LCD, Jeśli obraz wciąż jest przygaszony problem może tkwić w złym podświetlaniu, które będzie musiał wymienić profesjonalista.

 Istnieje szereg czynników, które wpływają na koszt naprawy ekranu LCD w laptopie, najbardziej znaczącym z nich jest marka i model laptopa. Modele różnią się wielkością i formatem zależnie od różnych producentów, dlatego niektóre urządzania są droższe w naprawie od innych. Dobrą wieścią jest to że wielu producentów oferuje części zamienne, więc naprawa często jest tańszą alternatywą od zakupu nowej maszyny.

---

Czy jesteś zainteresowany naprawą MacBooka Apple lub ogólnie nauczeniem się więcej o naprawie komputerów? Nowematryce pomaga biznesom związanym z naprawą komputerów już od ponad 3 lat.

Artykuł pochodzi z serwisu www.Artelis.pl

Czym się różnią serwery – jakie dyski stosuje się w serwerach

Czym się różnią serwery – jakie dyski stosuje się w serwerach

Autorem artykułu jest Krzysztof Kurilec


Dyski to oprócz procesorów najważniejszy element serwera. Od dysków zależy ile danych pomieści serwer i jak szybko będzie je w stanie odczytywać i zapisywać a to bezpośrednio przekłada się na wydajność pracy użytkowników.

To samo można powiedzieć o każdym komputerze, ale na komputerze osobistym pracuje jedna osoba a serwer służy wielu użytkownikom. I dlatego w serwerach stosuje się rozwiązania nieznane w komputerach osobistych.

Z dyskiem nieodłącznie związany jest kontroler dyskowy. Mogłeś do tej chwili nie wiedzieć, że coś takiego w ogóle występuje w komputerowej przyrodzie, bo o kontrolerach w przypadku PC-tów właściwie się nie mówi – są zawsze wbudowane na płycie głównej i są zawsze.

Z serwerami jest inaczej, bo chociaż takie proste kontrolery są również zintegrowane na serwerowych płytach głównych (używane np. do połączenia napędów CD/DVD) to ich wydajność jest niewystarczająca a poza tym mają tę wadę, że bardzo obciążają procesor a wiadomo, że procesor w serwerze ma ważniejsze zadania niż sterowanie przesyłaniem danych z dysku i na dysk.

Dlatego w serwerach najczęściej stosuje się dodatkowe kontrolery dysków, które mają swój specjalizowany procesor i zwykle bufor pamięci, co zapewnia o wiele większą wydajność serwera.

1. Jakie są parametry dysków ?

 - Dyski twarde generalnie różnią się interfejsem oraz szybkością obrotową, od których zależy szybkość dysku oraz pojemnością i wielkością obudowy, które na szybkość dysku nie ma wpływu.
Dyski stosowane w serwerach mogą mieć: 
      - interfejs SATA (SATA I – 1.5 Gbit/s, SATA II – 3 Gbit/s) lub SAS (3 Gbit/s lub 6 Gbit/s);
        wkrótce powszechny będzie interfejs  SATA III, który „dogoni” SAS osiągając 6Gbit/s
      - Szybkość obrotową 7.200, 10.000 oraz 15.000 obr/min
      - Obudowę 2.5” lub 3.5”

- Dostępne są obecnie pojemności dysków od kilkudziesięciu GB do kilku TB – typowa pojemność to kilkaset GB (300-500)

- W najtańszych serwerach można spotkać zwykłe dyski z interfejsem SATA – takie same, jak komputerach typu desktop.

- W serwerach najczęściej stosowane są specjalne serwerowe dyski SATA oraz dyski SAS

2. W jaki sposób dyski są montowane w serwerach ?

- W najtańszych serwerach dyski są zwykle instalowane wewnątrz.
- Dyski SATA podłącza się zwykle do kontrolera wbudowanego na płycie głównej, podczas gdy dyski SAS wymagają dodatkowych kontrolerów w postaci kart rozszerzających
- Typowo dysk ma postać  modułu Hot-Swap, który można wymienić bez otwierania obudowy i wyłączania serwera
- Dyski w postaci modułów Hot-Swap nie mają żadnych kabli – to klatka, do której się je wkłada ma złącza do zasilania i do kontrolera.

2. Co to jest macierz dyskowa i po co się je stosuje ?

- Dla zwiększenia szybkości oraz bezpieczeństwa danych stosowane są macierze dyskowe RAID. Idea pracy macierzy polega na tym, że dane, która mają być zapisane na dysku  po odebraniu przez kontroler są dzielona na części i zapisywane na kilku dyskach jednocześnie. Analogicznie się dzieje w przypadku odczytu. Do tych operacji niezbędny jest niezależny procesor oraz pamięć w kontrolerze.

- Poziom RAID określa czy dane są mirrorowane (bezpieczeństwo) czy dzielone na części, których zapis/odczyt odbywa się równocześnie (szybkość). Najczęściej spotykane poziomy RAID to 0,1,10 i 5.
Poniżej kilka słów o każdym z nich:
     - Najprostszy RAID 1 (tzw. Mirroring) polega na tym, że na dwóch dyskach są identyczne dane – gdy jeden z dysków się zepsuje mamy drugi dysk.
     - RAID 0 (tzw.Stripping) polega na tym, że dane dzielone są dwie (lub więcej) części, które  zapisywane są w tym samym czasie, dzięki czemu uzyskujemy wzrost prędkości. Spada jednak poziom bezpieczeństwa danych, bo gdy jeden z dysków się zepsuje tracimy wszystkie dane. Pojemność macierzy jest tu równa sumie pojemności dysków.
     - RAID 10 to połączenie RAID 0 i RAID 1 – połączenie szybkości i bezpieczeństwa w jednym. Wymaga co najmniej 4 dysków. W tym przypadku efektywna pojemność macierzy równa jest połowie sumy pojemności dysków.
     - RAID 5 działa w taki sposób, że na jednym z dysków macierzy zapisywane są informacje, które umożliwiają odczyt danych na wypadek awarii jednego z dysków. Macierz RAID5 wymaga co najmniej 3 dysków. Pojemność macierzy jest równa sumie pojemności wszystkich dysków pomniejszonej o pojemność jednego dysku.

- W najlepszych kontrolerach pamięć podtrzymanie zabezpieczające przed utratą danych w przypadku nagłego zaniku zasilania. Pamięć kontrolera służy zwiększeniu szybkości przesyłu danych. Im jej więcej tym lepiej. Podtrzymanie jest szczególnie ważne w przypadku zapisu, ponieważ dane, które ma w pamięci kontroler są „w drodze” pomiędzy aplikacją a dyskiem – nie ma ich już w pamięci aplikacji i nie zostały jeszcze zapisane na dysku. Ich utrata może np. zakłócić spójność bazy danych.

Zawrotną karierę robią ostatnio dyski SSD - dyski półprzewodnikowe, nie zawierające żadnych mechanicznych elementów. Są one o wiele szybsze od dysków tradycyjnych. Dyski SSD mogą udawać tradycyjne dyski SATA lub występować w postaci kart rozszerzających – są wówczas jeszcze szybsze, bo transferu nie ogranicza interfejs SATA a jedynie przepustowość magistrali PCI serwera.

W najbardziej zaawansowanych rozwiązaniach stosuje się zewnętrzne pamięci masowe – tzw. storage, które podłącza się albo do sieci (NAS/SAN) albo przez specjalny kontroler do serwera lub kilku serwerów.

To, które rozwiązanie będzie optymalne zależy od tego, do czego serwer ma służyć oraz jak dużo danych ma przechowywać. Zawsze warto zapytać eksperta – kto pyta nie błądzi :-)

---

Krzysztof Kurilec
www.lsb.pl

Artykuł pochodzi z serwisu www.Artelis.pl

Jaka obudowa komputera: leżąca,mini czy midi

Jaka obudowa komputera: leżąca,mini czy midi

Autorem artykułu jest Mirosław Kubik



Obudowy komputerowe jakie są rodzaje?Do czego służy obudowa komputera?Jak w tak ogromnej ofercie wybrać tę właściwą?Czym powinniśmy się kierować przy wyborze obudowy komputera? 

Obudowa komputera to stalowa lub aluminiowa skrzynka,w której mocujemy elementy komputera.Poprzez zastosowanie obudowy chronimy podzespoły przed uszkodzeniem oraz zapewniamy im dobrą wentylację.Dobra obudowa powinna być tak skonstruowana by umożliwić nam łatwy montaż i demontaż podzespołów.

 

Rodzaje obudów

 

Ze względu na architekturę mamy cztery rodzaje obudów:

-AT – obudowa starszego typu,dziś już spotykana coraz rzadziej

-ATX – najbardziej popularna

-NLX

-Mini-PC

-BTX – stosunkowo nowy typ

 

Obudowy są produkowane w wersji deskop,tzw.leżące i tower(stojące),mają różne wymiary i kształty oraz wygląd.

 

Obudowa typu desktop

 

Tak zwana leżąca,jest tak skonstruowana,aby postawić na niej monitor.Daje nam to możliwość oszczędności miejsca na biurku.Stosując ten rodzaj obudowy zyskujemy również łatwy dostęp do napędu dvd,jednakże jej płaski kształt utrudnia lub uniemożliwia rozbudowę komputera.

 

Obudowa typu tower

 

Mamy trzy rodzaje obudów stojących:

Mini tower – najmniejsza obudowa typu "tower",w której możemy zamontować dwie stacje dyskietek i dwa napędy dvd

Midi tower – średnia obudowa typu "tower",która umożliwia montaż dwuch stacji dyskietek i trzech lub czterech napędów dvd

Big tower – największa obudowa typu "tower" najczęściej stosowana w serwerach. Umożliwia montaż dwóch małych i pięciu dużych napędów

 

Wygląd

 

W ostatnim czasie obserwujemy bardzo duże zmiany w wyglądzie.Producenci dodają różnobarwną kolorystykę,stosują dodatki z tworzyw sztucznych.W niektórych obudowach można spotkać także mały wyświetlacz LCD.

 

 

Przed zakupem obudowy musimy sobie odpowiedzieć na dwa pytania:

czy mamy miejsce obok biurka na postawienie skrzynki,czy będziemy musieli komputer mieć na biurku?

 

Jeśli komputer musimy lub chcemy umieścić na biurku wybieramy obudowę leżącą. Obudowy te z racji swojej budowy wymagają odpowiednich elementów składowych,są niższe więc karty rozszerzeń muszą mieć mniejszego tzw. "śledzia" do przykręcenia ich do obudowy. Nie każdą płytę główną do nich dopasujemy. Jest kilku producentów,którzy wykonują gotowe zestawy właśnie w obudowie leżącej.

 

czy planujemy w przyszłości modernizację komputera?

Jeśli planujemy, to jak wyżej wspomniałem obudowa leżąca może nam przyspożyć troszkę kłopotów. Lepszym wyborem będzie obudowa stojąca(tower) mini lub midi. Do domu lub biura nie ma sensu stosować obudowy big tower.

Obudowa mini tower zajmuje mniej miejsca, jednakże musimy do niej zastosować płytę główną w formacie mini atx. Obudowa ta z racji mniejszej budowy ma także mniejszą zdolność do odprowadzania ciepła.

A zatem najlepszym wyborem będzie obudowa atx midi tower. Mamy pełną manewrowość pod względem rozbudowy,jest w nich odpowiednie ilość wolnej przestrzeni do wentylacji,montaż elementów składowych nie przysparza problemów.

 

Podsumowując najlepszym wyborem jest obudowa midi tower.

 

 

---

autor Mirosław Kubik

komputerymirek.blogspot.com


Artykuł pochodzi z serwisu www.Artelis.pl

Wizualizacja 3D i jej zastosowanie

Wizualizacja 3D i jej zastosowanie

Autorem artykułu jest martinez80



Dobry projekt jest tylko częścią sukcesu. Taki projekt trzeba jeszcze dobrze sprzedać, zaprezentować go w sposób atrakcyjny i ciekawy. Ogromne pole do popisu ma tutaj umiejętnie wykorzystana grafika komputerowa.

Wizualizacja 3D będąca jedną z dziedzin grafiki komputerowej, obecnie ma bardzo szerokie zastosowanie. Jej celem jest ukazanie projektów i pomysłów w taki sposób, w jaki będą one wyglądać w rzeczywistości. Ma zastosowanie m. in. w pracy projektantów wnętrz, mogących w ten sposób np. zaprezentować te same pomieszczenie w różnych aranżacjach, projektantów form przemysłowych czy producentów mebli.Grafika 3D może też być z powodzeniem wykorzystywana przy projektowaniu stron internetowych. W biurach architektonicznych czy firmach developerskich wizualizacja komputerowa stała się już standardem pomagającym zaprezentować w realistyczny sposób budynek, często będący dopiero w fazie projektu.


Nowoczesna i atrakcyjna prezentacja z wykorzystaniem grafiki trójwymiarowej w postaci statycznej wizualizacji czy też animacji ma sprawić, że potencjalny klient łatwiej zdecydują się na tą a nie inną ofertę, ponieważ daje ona możliwość przekonania się, jak w rzeczywistości będzie wyglądał dany projekt.

wizualizacja 3d

Na rynku jest szereg programów przeznaczonych do tworzenia trójwymiarowej grafiki. Są wśród nich programy łatwe w obsłudze często podchodzące do tematu w dość uproszczony sposób i mające spore ograniczenia, jednak dla mniej wymagających mogą być w pełni wystarczające. Do dużo bardziej skomplikowanych projektów związanych z grafiką 3D wykorzystuje się bardziej zaawansowane programy a najbardziej popularne z nich to: 3D studio max, Softimage, Maya lub Cinema. Ich możliwości są dużo większe, jednak opanowanie ich na dobrym poziomie wymaga sporo doświadczenia i parę lat praktyki.

---

Zaprezentuj swój projekt w atrakcyjny sposób, wykorzystaj mozliwości grafiki komputerowej


Artykuł pochodzi z serwisu www.Artelis.pl

Jak zaprojektować dobre logo?

Jak zaprojektować dobre logo?

Autorem artykułu jest Konrad Semma



Jak zaprojektować idealne logo? To pytanie zadaje sobie bardzo wielu grafików. Pierwszą rzeczą jaką trzeba sobie wziąść do serca jest prostota.

Dobre logo musi nawiązywać do braży w jakiej działa dana firma, przyciągając wzrok klientów poprzez wywoływanie pozytywnych skojarzeń. Pamiętajmy także o unikaniu niepotrzebnej ekstrawagancji, która w wielu przypadkach może przynieść wręcz odwrotny efekt. W końcu inny przekaz kieruje do klientów kancelaria prawna, a inny portal społecznościowy. Najlepsze loga to takie, które można łatwo zapamiętać, dlatego zaprojektowanie naprawdę udanego wzoru zajmuje czasem dość dużo czasu. Logotypy są w dzisiejszych czasach na porządku dziennym - widzimy je wszędzie: w reklamach telewizyjnych i internetowych, na torebkach, ubraniach, szyldach sklepów- otaczają nas zawsząd, niezależnie od tego gdzie jesteśmy.

Przejdźmy więc do szczegółów. Po pierwsze odpowiedni kształt.  Logo powinno w jakiś sposób nawiązywać do nazwy firmy. W zależności od tego do kogo kierujemy naszą  ofertę, krawędzie logo mogą być ostre, nowoczesne, lub też posiadać delikatne zaokrąglenia. Inaczej na barwy, kolory i symbole reagują kobiety, inaczej mężczyźni, jednak w wielu wypadkach trzeba będzie znaleźć złoty środek. Kształt to nie wszystko, gra kolorów jest równie ważna - musimy wiedzieć jak konkretne barwy działają ludzką psychikę. Łączmy symetrię z asymetrią dzięki czemu nasze logo będzie niepowtarzalne. Dobre logo to także dobry program graficzny, który da nam bardzo wiele możliwości łączenia, tworzenia i przemieszczania, i tutaj chcemy wam coś podpowiedzieć. Zdecydowanie odradzamy korzystanie z programów służących głównie do obróbki zdjęć, potrzebny jest program, który daje możliwości tworzenia i edycji grafiki wektorowej. Każdy, nawet najmniejszy szczegół w naszym logo musi mieć sens. Logo powinno odpowiednio przemawiać do odbiorcy. Zastanówmy się więc nad tym co umieścić w naszym logo, czego unikać- nie emanujmy zbędnymi ozdobnikami, które mogą jedynie popsuć obraz całości i sprawić, że firma nie będzie się kojarzyła profesjonlanie.  

Jeżeli nie macie doświadczenia w projektowaniu i tworzeniu profesjonalnych logotypów, to doradzamy skorzystanie z usług fachowców. Skorzystać możecie zarówno z pomocy agencji interaktywnej lub też freelancerów. Wybór należy do was, pamiętajcie jedynie, aby odpowiednio zweryfikować umiejętności wykonawcy, w końcu logo waszej firmy to symbol i wizytówka, która powinna budzić pozytywne skojarzenia.

---

Profesjonalna agencja marketingowa poznań. Dbamy o wasz wizerunek w sieci.


Artykuł pochodzi z serwisu www.Artelis.pl

7 metod na zwiększenie ruchu na blogu

7 metod na zwiększenie ruchu na blogu

Autorem artykułu jest Jasonone



W artykule przedstawiam 7 najbardziej znanych, skutecznych a na dodatek bezpłatnych metod na zwiększenie ruchu na Twoim blogu. Wskazówki te są sprawdzone i polecane przez wielu najwyższej rangi specjalistów zajmujących się zawodowo prowadzeniem blogów.

Masz bloga albo stronę – gratulacje, masz przewagę nad milionami innych ludzi, w tym użytkowników Internetu, którzy ich nie mają. Ale zastanawiasz się na pewno, jakich sposobów użyć, aby zwiększyć swoją ekspozycję w Internecie, aby twoja strona była odwiedzana przez więcej osób. Owszem, są osoby, które tworzą blog w pewnym sensie dla siebie i nie zależy im na czytelnikach, no może z wyjątkiem znajomych…. Ale z biegiem czasu nawet takie osoby zdają sobie sprawę, jaką frajdę daje angażowanie większej liczby osób w dyskusję na blogu, bądź po prostu ich zainteresowanie naszym blogiem.

Zarówno posiadając blog biznesowy jak i blog osobisty, z pewnością możesz skorzystać z kilku prostych sposobów na to, aby zwiększyć oglądalność swojej strony.

1.      Wartościowe wpisy.

Nic tak bardziej nie przyciąga uwagi jak ciekawa, wartościowa i rzetelna  treść wpisów na blogu. Zastanów się, co ciebie by zaciekawiło i w jaki sposób zaprezentowane, gdybyś szukał(a) informacji na dany temat. Jak często chciałbyś (chciałabyś) widzieć nową treść na tym blogu.

2.     Komentarze na innych blogach.

Ważnym krokiem do zwiększenia odwiedzin na twoim blogu jest również umieszczanie komentarzy na innych blogach zostawiając w odpowiednio do tego przewidzianej rubryce link do twojej strony. Szczególnie, gdy ktoś zostawi komentarz na twoim blogu, spójrz na jego (jej) stronę i umieść tam komentarz, jest to również forma podziękowania za komentarz tej osoby. Pamiętaj jednak o tym, aby twoje komentarze były wartościowe i coś wnosiły do danego posta na innym blogu. Nikt nie zaakceptuje komentarza, który ma charakter spamu i zresztą czy chciałbyś (chciałabyś) widzieć takie komentarze na twoim blogu?

3.     Uczestnictwo w internetowych mediach społecznych.

Masz konto na Facebook? Twitter? Linkedin? Naszej Klasie? To są wszystko miejsca, które skupiają miliony użytkowników, ludzi, którzy podobnie jak ty szukają ciekawych informacji, a także informacji o innych osobach im znanych, na przykład znajomych.  Wymienione portale dają szereg opcji dla osób, które chcą zaangażować innych w ciekawe dyskusje, poinformować o interesujących wydarzeniach czy podzielić się posiadaną wiedzą. Możesz tworzyć fan kluby (np. na Facebook) czy grupy zainteresowań (np. Linkedin).

4.     Udział w internetowych forach dyskusyjnych.

Obecnie na prawie każdy temat są w Internecie fora, gdzie możesz podzielić się posiadaną wiedzą, pomóc komuś w rozwiązaniu problemu czy również dowiedzieć się wielu przydatnych rzeczy. Z reguły zapisując się do takiego forum, możesz stworzyć swój profil i również umieścić link do twojej strony. Pamiętaj jednak zawsze o tym, aby twoje uwagi były ciekawe i wartościowe, a zadawane pytania związane z tematem dyskusji. Ponownie – nikt się nie zainteresuje Tobą i twoja stroną, jeśli to, co piszesz ma charakter spamu. Co gorsza tego typu spamowe uwagi mogą spowodować, że zostaniesz wyrzucony z danego forum. Na pewno chcesz tego uniknąć.

5.     Rejestracja bloga w zbiorach stron danych wyszukiwarek.

W ten sposób twoja strona zostanie szybciej zaindeksowana i szybciej będzie się pojawiać w wyszukiwaniach.

6.     Rejestracja bloga na portalach social bookmarking sites.

O tym jak duże znaczenie mają strony typu „serwisy zakładek społecznościowych” Nadmienię jeszcze tylko, że z miejsc tych korzystają miliony ludzi na całym świecie, więc rejestracja i  dobre streszczenie twojej strony oraz ciekawy tytuł mogą przyciągnąć sporą ich ilość do twojej strony.

7.     RSS

Adk68L7AAAAABJRU5ErkJggg==

Czyli Really Simple Syndication. Obecnie większość stron i blogów jest wyposażonych w ten system. Umożliwia on prostą, szybką subskrypcję do danego bloga. Wówczas, jeśli subskrypcja miała miejsce poprzez email, to za każdym razem, gdy na danym blogu pojawia się nowa treść, dostaniemy w tym przedmiocie email.  To narzędzie pozwala na zaoszczędzenie czasu, szczególnie, jeśli śledzimy wiele różnych blogów.


Mam nadzieję, że uznasz wskazane przeze mnie sposoby za przydatne:). Podziel się nimi z Twoimi znajomymi i nie tylko, ze wszystkimi z którymi chcesz.

---

Pozdrawiam

Radosław Jesionkowski


Artykuł pochodzi z serwisu www.Artelis.pl