-
Posts
2099 -
Joined
-
Last visited
-
Days Won
17
Everything posted by pyth0n3
-
Din punct de vedere informatic topicul a devenit penal . Rolurile principale isi merita un premiu. Tenth 2012 "penal" award Tot din punct de vedere informatic , mul?imea de cuvinte a mutantilor bazata pe un alfabet indefinit care nu poate fi interpretat intrun limbaj natural sau formal vor fi mutate la "Cele mai penale posturi".Va sfatuiesc in continuare tot din punct de vedere informatic sa faceti o prezentare legibila in cerintele voastre.Va multumesc pentru atentia acordata.!V-am rugat in mod politicos, data viitoare s-ar putea sa nu fiu bine dispus , asta depinde de multe variabile.
-
Nu valoreaza 2 lei . "Ubuntu branding and logos are changed" , Daca ar fi sa il comentez intrun limbaj de strada , "It's just another bullsh*t " Descarcati mai bine http://www.ubuntu.com/download/ubuntu/download Totusi va las un link catre un sistem cu nume similar dar mult mai serios din punct de vedere tehnic Anonym.OS LiveCD | Free software downloads at SourceForge.net
-
Nu te costa nimic sa contactezi staff-ul de la Yahoo Nu cred ca un cont de mail care nu a fost accesat de mult timp ar avea o valoare si nu cred ca cineva ar da 2 lei ca o alta persoana sa ii faca un refresh la memorie sa isi aduca aminte parola.Daca platesti atunci trimitemi documentele prin fedex si cer au ajutor la yahoo sa faca un change password.Rezolvam repede sau tu vrei ca cineva sa faca miracole si sa iti aduca parola pe tava.Nu inteleg sensul si ce cauti de fapt.Treziti-va !!!E ca si cum ai cumpara paine la un magazin de electronica.Dute la magazinul unde se vinde painea si cere paine.Ai probleme cu Yahoo, fa o plangere la Yahoo.Asta ar fi o scuza de 2 lei prin care ne spui ca nu stii cum sa intri in contul unui individ , nefiind o problema personala.Nu va inteleg aceasta atitudine.
-
In acest mini-how to voi explica cum trebuie configurat firewall-ul intrun sistem Unix/Solaris10 [blade]# uname -a SunOS blade 5.10 Generic_147440-01 sun4u sparc SUNW,Sun-Blade Pentru a porni firewall-ul vor trebui puse online 3 servicii [blade]# svcadm enable svc:/network/pfil:default [blade]# svcadm enable svc:/network/ipfilter:default [blade]# svcadm enable svc:/system/rmtmpfiles:default Pentru a verifica daca serviciile sunt online [blade]# svcs | egrep '(pfil|ipfilter)' online 17:52:51 svc:/network/pfil:default online 17:53:04 svc:/network/ipfilter:default online 17:53:05 svc:/system/rmtmpfiles:default /etc/ipf/pfil.ap va trebui populat cu numele interfetei de retea Pentru a vedea numele interfetei de retea se va folosi ifconfig [blade]# ifconfig -a lo0: flags=2001000849<UP,LOOPBACK,RUNNING,MULTICAST,IPv4,VIRTUAL> mtu 8232 index 1 inet 127.0.0.1 netmask ff000000 bge0: flags=1000843<UP,BROADCAST,RUNNING,MULTICAST,IPv4> mtu 1500 index 2 inet 192.168.123.110 netmask ffffff00 broadcast 192.168.123.255 ether 0:3:ba:92:89:ec [blade]# Interfata de retea este bge0 Numele interfetei bge . 0 fiind valoare primei interfete In fisierul /etc/ipf/pfil.ap se va introduce urmatoarea linie de ced echo "bge -1 0 pfil" > /etc/ipf/pfil.ap Regulile firewall-ului pot fi puse in /etc/ipf/ipf.conf Urmatorul comand va face in asa fel incat regulile sa fie citite din fisier ,deobicei vine rulat dupa ce vin introduse regulile ipf -Fa -f /etc/ipf/ipf.conf Urmatorul comand afiseaza in terminal regulile care au fost introduse si vin procesate de catre ipf [blade]# ipfstat -io block out log on bge0 all head 150 # Group 150 pass out quick proto tcp from any to any flags S/SA keep state group 150 pass out quick proto udp from any to any keep state group 150 pass out quick proto icmp from any to any keep state group 150 block in log on bge0 all head 100 # Group 100 pass in quick proto tcp from any to any port = ssh keep state group 100 pass in quick proto tcp from any to any port = 443 keep state group 100 pass in quick proto tcp from any to any port = 8080 keep state group 100 pass in quick proto icmp from any to any icmp-type echo keep state group 100 [blade]# Pentru a intelege structura regulilor puteti vizita urmatorul link IPFilter FAQ
-
Dupa cum zice si titlul , poftim un Dupa ce face un scan pastreaza doar o amintire. E gratis, ca sa il folosesti trebuie doar sa te prezinti in fata lui si scaneaza automat. THE CORE RULES OF NETIQUETTE
-
Pentru cronaca: Tat?l artistului este catolic ?i mama lui episcopal?,a fost educat în religia mamei urmând cursurile ?colii Heritage Christian (scoala cre?tin?) pân? în clasa a zecea.Profesorii din scoala au fost paranoici in legatura cu orice lucru de pe acest pamant raspandind teroare asupra studentilor cu povesti horror despre venirea apocalipsei iar apoi a unui anticrist.Aceasta a devenit principala sursa de cosmaruri a acestui copil chemat Brian.In scoala erau interzise multe lucruri, precum si dulciurile , au existat reguli de conduita precum cum trebuie sa se imbrace fiecare elev , era interzis sa asculti muzica si fiecare elev trebuia sa isi tina dulapul personal descuiat (fara lacat), asadar putea fi facuta o inspectie oricand de catre cadrele didactice.Societatea poate crea din oameni monstrii prin intermediul sistemului de invatamant iar acest personaj poate fi un exemplu.
-
Cum sa securizezi un website? Reguli care propun sa fie incluse in Systems development life cycle (SDLC) Regula numarul 1 sa nu iti hostezi site-ul la un alt provider (asta e doar parerea mea personala) Regula numarul 2 sa te gandesti la calitate, nu la cantitate (aceasta regula acopera majoritatea vulnerabilitatilor web) Regula numarul 3 sa mergi la prasit daca nu te duce capul de altceva indiferent titlul de studiu pe care il detii (Daca esti varza , esti varza , o diploma in plus una in minus nu iti schimba nimic .Aici am mai rezolvat jumate de vulnerabilitatii peste noapte) In 3 puncte am rezolvat jumatate din problemele firmelor de hosting existente pe piata si jumatate din problemele celor care vor sa faca bussines pentru cantitate (avem un procent mare de indivizi cu dorinta de a se imbogatii).
-
Ninth 2012 "penal" award Off: Nu pentru ca nu stii ce e un stmp , ci pentru ca ti-ai gresit cariera din start.
-
Dar ma intreb si eu asa chiar nu doare prostia?, si cum nu ma astept la un raspuns de la nimeni imi raspund intrun monolog, nu cred ca doare prostia .Am mai irosit cateva cuvinte din timpul meu pretios pentru a raspunde intrun topic cu un subiect extrem de important ca acesta .Va rog continuati, continuati ...scuzati-ma daca v-am deviat mintile pentru o secunda de la o asemenea placere.
-
Download white paper : wget http://sprunge.us/JgZi -O zfs_by_example.txt In acest articol voi discuta despre ZFS (Zettabyte File System). Zettabyte este o unitate de masura si poate fi reprezentata in urmatorul fel: 1 Zettabyte = 1,180,591,620,717,411,303,424 (270) bytes, 1,024 Exabytes, 983,826,350,597,842,752 pages of plaintext (1,200 characters) 4,919,131,752,989,213 books (200 pages or 240,000 characters) 375,299,968,947,541 digital pictures (with 3MB average file size) 281,474,976,710,656 MP3 audio files (with 4MB average file size) 1,732,153,702,834 650MB CD’s 251,030,052,003 4.38GB DVD’s 43,980,465,111 25GB Blu-ray discs ZFS este un filesystem open source care a fost svilupat de catre Sun MicrosystemVine distribuit sub licenta Common Development and Distribution License, si exista un porting pt Linux.Pentru cei interesati (ZFS on Linux).Un feature esential a acestui filesystem ar fi "data integrity".Poate preveni ca datele sa fie corupte, voi face si o minima demonstratie in unul din exemple unde voi incerca sa corup o parte din date.Acepta fisiere de dimensiuni destul de mari (16 exabytes) si o limita de 256 zettabytes pentru dimensiunea total? a sistemului de fi?iere. Inainte de a crea cateva exemple voi ilustra diferenta intre modul in care vin contruite diverse sisteme de fisiere si zfs. Sistemul de fisiere zfs vine construit intrun recipient chemat zpool .Un zpool vine construit din dispozitive virtuale care in acelasi rand sunt construite din dispozitive de block ,acestea pot fi partitii de hard disk sau drive-uri intregi. Un sistem de fisiere de obicei poate fi creat intrun dispozitiv unic (hard disk) si necesita un volume manager pentru a utiliza mai mult de un dispozitiv.Un exemplu poate ilustra acest lucru: -------------------------- -------------------------- - - - - - filesystem1 - - filesystem2 - - - - - -------------------------- -------------------------- - - - - ____________-____________ ____________-____________ _ _ _ _ _ logical volume1 _ _ logical volume2 _ _ _ _ _ _________________________ _________________________ | | ######### | ######### ######### | ######### # # # # # # # # # disk # # disk # # disk # # disk # # # # # # # # # ######### ######### ######### ######### Deobicei in majoritatea cazurilor unde vine folosit un volume manager aceasta este structura pe baza careia vine creat un sistem de fisiere In schimb zfs contruieste sistemul de fisiere intrun singur recipient chemat zpool , in acelasi timp sistemele de fisiere pot fi structurate intro ierarhie.Exemplu zpool: ------------- - - -filesystem - - 6 - ------------- - - ------------- ------------- - - - - -filesystem - -filesystem - - 4 - - 5 - ------------- ------------- - - - - ------------- ------------- ------------- - - - - - - -filesystem - -filesystem - -filesystem - - 1 - - 2 - - 3 - ------------- ------------- ------------- - - - ____________-_______________-_______________-____________ _ _ _ ZPOOL _ _ _ _________________________________________________________ | | | | | | ######### ######### ######### ######### # # # # # # # # # disk1 # # disk2 # # disk3 # # diskX # # # # # # # # # ######### ######### ######### ######### Diferenta dintre voume manager este ca in zfs se poate crea un singur zpool in care pot fi atasate toate partitiile sau drive-uri intregi si sistemele de fisiere pot avea o ierarhie .Un sistem de fisiere poate avea in internul lui alte sisteme de fisiere. Spatiul acestor sisteme de fisiere poate fi delimitat , fiecare poate avea o anumita cota (dimensiune), vom vedea pe parcurs cum pot fi alocate aceste dimensiuni. Exemplele urmatoare sunt facute intrun sistem Unix SunOS 5.10 in exemple voi folosi 2 partitii separate (slice) , aceeasi sintaxa ramane valabila pentru drive-uri separate Voi crea un zpool care va gazdui diverse sisteme de fisiere folosind doua slice, evindent pe parcurs se poat adauga alte partitii sau discuri in mod dinamic Sistemele de fisiere create nu necesita unmount, si nu trebuie creata nici un fel de directiva in /etc/vfstab , o data creat fiecare sistem de fisiere va fi montat in mod automat iar in momentul in care se vor adauga discuri noi , spatiul va fi modificat in mod dinamic. Pentru test voi folosi urmatoarele (slice): c1d1s3 -> 1GB c1d1s4 -> 1GB Voi folosi 2 servere separate Hostname pyth0n3 Debian 6 -> pentru a testa integritatea datelor Hostname eclipse Solaris 10 -> pentru a crea un zfs Sintaxa pentru a crea un zpool este urmatoarea zpool nume_pool disk1 disk2 diskX Se poate crea spre exemplu un zpool mirror cu urmatoarea sintaxa zpool nume_pool mirror disk1 disk2 mirror disk3 disk4 Spre exemplu un zpool mirror creat din doua disck-uri de 2GB va avea 1GB de spatiu deoarece unul din disk-uri va fi folosit pentru mirroring. Se poate crea spre exemplu un zpool folosind un singur disk sau o singura partitie a unui disk.Exemplu: zpool create eclipse_pool c1d1s3 O data ce aceasta sintaxa a fost rulata s-au intamplat urmatoarele: A fost creat un zpool eclipse_zpool, si a fost montat in mod automat ,mount sau df poate demonstra acest lucru [eclipse]# mount ........ ........ /eclipse_pool on eclipse_pool read/write/setuid/devices/nonbmand/exec/xattr/atime/dev=2d5000e on Thu Mar 8 06:58:32 2012 [eclipse]#[eclipse]# df -h eclipse_pool Filesystem size used avail capacity Mounted on eclipse_pool 984M 21K 984M 1% /eclipse_pool [eclipse]# Un zpool vine montat in mod automat dupa ce a fost construit si poate fi direct folosit ca sistem de fisiere ,acest lucru permite in mod automat stocarea oricarui tip de fisier in /eclipse_pool. [eclipse]# zpool status -v eclipse_pool pool: eclipse_pool state: ONLINE scrub: none requested config: NAME STATE READ WRITE CKSUM eclipse_pool ONLINE 0 0 0 c1d1s3 ONLINE 0 0 0 errors: No known data errors [eclipse]# zpool status arata daca acest sistem de fisiere nu prezinta errori, numarul disk-urilor sau a prtitiilor care fac parte si daca este pregatit pentru a putea fi folosit .Un status online va demonstra ca sistemul de fisiere este deja pus la dispozitie si poate fi folosit.Un alt tip de optiune care poate aduce informatii in legatura cu un pool care a fost creat este zpool list [eclipse]# zpool list NAME SIZE ALLOC FREE CAP HEALTH ALTROOT eclipse_pool 1016M 76.5K 1016M 0% ONLINE - [eclipse]# Pentru a extinde spatiul e destul de simplu, pot fi atasate alte discuri sau partitii iar spatiul va fi extins in mod dinamic. zpool add eclipse_pool c1d1s4 eclipse_pool a fost extins in mod automat iar un zpool list sau df poate demonstra acest lucru [eclipse]# zpool list NAME SIZE ALLOC FREE CAP HEALTH ALTROOT eclipse_pool 1.98G 134K 1.98G 0% ONLINE - [eclipse]# [eclipse]# df -h eclipse_pool Filesystem size used avail capacity Mounted on eclipse_pool 2.0G 21K 2.0G 1% /eclipse_pool [eclipse]# A fost atasat un alt slice de 1Gb , momentan sistemul de fisiere are 2 GB de spatiu.zpool status va demonstra faptul ca a fost atasat un alt dispozitiv [eclipse]# zpool status -v eclipse_pool pool: eclipse_pool state: ONLINE scrub: none requested config: NAME STATE READ WRITE CKSUM eclipse_pool ONLINE 0 0 0 c1d1s3 ONLINE 0 0 0 c1d1s4 ONLINE 0 0 0 errors: No known data errors [eclipse]# In acest mod pot fi atasate diverse alte dispozitive marind sistemul de fisiere in mod dinamic. Un pool poate fi distrus intrun mod foarte simplu si rapid de aceea sintaxele comenzilor ar trebui rulate cu multa atentie. Pentru a distruge tot ce a fost contruit pana in prezent se poate folosi urmatoarea sintaxa. zpool destroy eclipse_pool Un zpool list va demonstra faptul ca nu exista [eclipse]# zpool list no pools available [eclipse]# In exemplele urmatoare voi crea un pool mirror , necesita un minim de doua dispozitive. Voi folosi aceleasi slice care au fost folosite in exemplele precedente c1d1s3 -> 1GB c1d1s4 -> 1GB Pentru a crea un mirror din 2 dispozitive se poate folosi urmatoarea sintaxa: zpool create eclipse_mirrorpool mirror c1d1s3 c1d1s4 Ca si in exemplu precedent acesta pool va fi montat in mod automat [eclipse]# zpool status -v eclipse_mirrorpool pool: eclipse_mirrorpool state: ONLINE scrub: none requested config: NAME STATE READ WRITE CKSUM eclipse_mirrorpool ONLINE 0 0 0 mirror-0 ONLINE 0 0 0 c1d1s3 ONLINE 0 0 0 c1d1s4 ONLINE 0 0 0 errors: No known data errors [eclipse]# In schimb acest pool nu va mai avea 2Gb ci jumatate din spatiul alocat deoarece cealalta jumatate va fi folosita pentru mirroring Filesystem size used avail capacity Mounted on eclipse_mirrorpool 984M 21K 984M 1% /eclipse_mirrorpool [eclipse]# Cum am precizat dimensiunea este 984M aproximativ un GB , jumatate din spatiul celor doua slice alocate. Acest sistem de fisiere poate fi populat cu date , iar in urmatoarele exemple voi incerca sa corup unul din dispozitivele atasate pentru a distruge datele. [eclipse]# pwd /eclipse_mirrorpool [eclipse]# mkfile 30M sensitive_data.txt [eclipse]# df -h . Filesystem size used avail capacity Mounted on eclipse_mirrorpool 984M 16M 968M 2% /eclipse_mirrorpool [eclipse]# ls -ltrh total 57875 -rw------T 1 root root 30M Mar 8 08:14 sensitive_data.txt [eclipse]# Voi copia acest file pe un alt sistem extern pentru a crea un test de integritate [pyth0n3@mc]$ uname -a Linux mc 2.6.32-5-686 #1 SMP Wed Jan 11 12:29:30 UTC 2012 i686 GNU/Linux [pyth0n3@mc]$ scp eclipse:/eclipse_mirrorpool/sensitive_data.txt sensitive_da> sensitive_data.txt 100% 30MB 1.8MB/s 00:17 [pyth0n3@mc]$ /usr/bin/shasum -a 256 sensitive_data.txt > sha256.data.sum [pyth0n3@mc]$ cat sha256 75c91b29d5522c8a97c779e50bc33f11e07ed37b2baa31c8c727016e92915c1d sensitive_data.txt [pyth0n3@mc]$ date Thu Mar 8 08:25:05 CET 2012 [pyth0n3@mc]$ [pyth0n3@mc]$ O metoda simpla pentru a distruge dispozitive este dd [eclipse]# date Thu Mar 8 08:25:58 CET 2012 [eclipse]# dd if=/dev/urandom of=/dev/dsk/c1d1s3 bs=512 count=1024 1024+0 records in 1024+0 records out [eclipse]# [eclipse]# zpool status -v eclipse_mirrorpool pool: eclipse_mirrorpool state: ONLINE scrub: none requested config: NAME STATE READ WRITE CKSUM eclipse_mirrorpool ONLINE 0 0 0 mirror-0 ONLINE 0 0 0 c1d1s3 ONLINE 0 0 0 c1d1s4 ONLINE 0 0 0 errors: No known data errors [eclipse]# Chiar daca dispozitivul c1d1s3 a fost distrus , zpool status nu arata nici un fel de problema . [pyth0n3@mc]$ date Thu Mar 8 08:27:25 CET 2012 [pyth0n3@mc]$ scp eclipse:/eclipse_mirrorpool/sensitive_data.txt sensitive_da> sensitive_data.txt 100% 30MB 2.3MB/s 00:13 [pyth0n3@mc]$ /usr/bin/shasum -c sha256.data.sum sensitive_data.txt: OK [pyth0n3@mc]$ O copie a aceluiasi fisier nu prezinta nici un fel de probleme,testul de integritate arata ca fisierul nu a fost corupt La inceputul acestui articol am spus ca in zfs sistemele de fisiere pot fi create intro ierarhie Momentan am creat un pool eclipse_mirrorpool care poate gazdui alte sisteme de fisiere Pentru a crea un alt filesystem in eclipse_mirrorpool spre exemplu un filesystem chemat home se poate folosi urmatoaree sintaxa zfs create eclipse_mirrorpool/home Presupunem ca in /home vrem sa facem un alt sistm de fisiere chemat /testing zfs create eclipse_mirrorpool/home/testing In momentul in care comenizile vin rulate cu success nu prezinta un output, iar pentru a controla ceea ce a fost creat folosind sintaxele precedente se poate folosi zfs list [eclipse]# zfs list NAME USED AVAIL REFER MOUNTPOINT eclipse_mirrorpool 30.2M 954M 30.0M /eclipse_mirrorpool eclipse_mirrorpool/home 42K 954M 21K /eclipse_mirrorpool/home eclipse_mirrorpool/home/testing 21K 954M 21K /eclipse_mirrorpool/home/testing [eclipse]# Note: Un lucru important de observat este faptul ca toate sistemele de fisiere create au acelasi spatiu disponibil si anume 954M.Asta ar insemna ca fiecare poate folosi acest spatiu dar in momentul in care unul din ele va umple acest spatiu celelalte nu il vor putea folosi.Presupunem ca sistemul de fisiere testing ar trebui sa foloseasca doar 50Mb din spatiul tolal iar sistemul de fisiere home va trebui sa foloseasca doar 200Mb.Ei bine aceasta limita poate fi imposa de catre o cota. Un lucru important de observat este faptul ca toate sistemele de fisiere create au acelasi spatiu disponibil si anume 954M.Asta ar insemna ca fiecare poate folosi acest spatiu dar in momentul in care unul din ele va umple acest spatiu celelalte nu il vor putea folosi.Presupunem ca sistemul de fisiere testing ar trebui sa foloseasca doar 50Mb din spatiul tolal iar sistemul de fisiere home va trebui sa foloseasca doar 200Mb.Ei bine aceasta limita poate fi imposa de catre o cota. Un lucru important de observat este faptul ca toate sistemele de fisiere create au acelasi spatiu disponibil si anume 954M.Asta ar insemna ca fiecare poate folosi acest spatiu dar in momentul in care unul din ele va umple acest spatiu celelalte nu il vor putea folosi.Presupunem ca sistemul de fisiere testing ar trebui sa foloseasca doar 50Mb din spatiul tolal iar sistemul de fisiere home va trebui sa foloseasca doar 200Mb.Ei bine aceasta limita poate fi imposa de catre o cota. Vom aloca doar 200 de Mb pentru home zfs set quota=200M eclipse_mirrorpool/home Vom aloca doar 50 de MB pentru testing zfs set quota=50M eclipse_mirrorpool/home/testing Pentru a observa ceea ce a fost setat pana acum in legatura cu limita sistemelor de fisiere se poate folosi urmatoarea sintaxa [eclipse]# zfs get -r quota eclipse_mirrorpool NAME PROPERTY VALUE SOURCE eclipse_mirrorpool quota none default eclipse_mirrorpool/home quota 200M local eclipse_mirrorpool/home/testing quota 50M local [eclipse]# zfs list NAME USED AVAIL REFER MOUNTPOINT eclipse_mirrorpool 30.2M 954M 30.0M /eclipse_mirrorpool eclipse_mirrorpool/home 43K 200M 22K /eclipse_mirrorpool/home eclipse_mirrorpool/home/testing 21K 50.0M 21K /eclipse_mirrorpool/home/testing [eclipse]# Acum fiecare filesystem poate fi folosit pana in momentul in care spatiul stabilit de catre quota se va umple. Note: Un alt lucru pe care zfs il permite este schimbarea numelui oricarui din sistemele de fisiere create [eclipse]# zfs rename eclipse_mirrorpool/home/testing eclipse_mirrorpool/home/testing2 [eclipse]# zfs list NAME USED AVAIL REFER MOUNTPOINT eclipse_mirrorpool 30.2M 954M 30.0M /eclipse_mirrorpool eclipse_mirrorpool/home 43K 200M 22K /eclipse_mirrorpool/home eclipse_mirrorpool/home/testing2 21K 50.0M 21K /eclipse_mirrorpool/home/testing2 [eclipse]# Se poate observa cum fiecare filesystem vine montat separat in mod automat de catre zfs , df sau mount poate demonstra acest lucru eclipse_mirrorpool 984M 30M 954M 4% /eclipse_mirrorpool eclipse_mirrorpool/home 200M 23K 200M 1% /eclipse_mirrorpool/home eclipse_mirrorpool/home/testing2 50M 21K 50M 1% /eclipse_mirrorpool/home/testing2 [eclipse]# mount ..... ..... /eclipse_mirrorpool on eclipse_mirrorpool read/write/setuid/devices/nonbmand/exec/xattr/atime/dev=2d5000f on Thu Mar 8 07:33:29 2012 /eclipse_mirrorpool/home on eclipse_mirrorpool/home read/write/setuid/devices/nonbmand/exec/xattr/atime/dev=2d50010 on Thu Mar 8 08:37:17 2012 /eclipse_mirrorpool/home/testing2 on eclipse_mirrorpool/home/testing2 read/write ..... ..... Un alt lucru important pe care zfs il are este posibilitatea de a crea un snapshot(o fotografie a unui sistem de fisiere la un anumit timp )sau un clone (un clone este de fapt un link simbolic catre un snapshot dar permite sa fie montat si se poate scrie in filesystem, in schimp un snaphot e readonly) Note: Daca spre exemplu sistemul de fisiere are 1Gb de spatiu si vine creat un fisier de 512Mb vor mai ramane liberi 512 Mb in acel filesystem (Acest lucru e logic).Daca in acest moment vine creat un snapshot n acest sistem de fisiere spatiul disponibil al filesystem-ului va fi tot 512Mb , nu vine preluat spatiu suplimentar.Dar in momentul in care fisierul care ocupa deja 512Mb va fi eliminat si va fi creat un alt fisier in aceeasi instanta de 700Mb , snapshot-ul va ocupa aceeasi 512Mb + 700Mb care au fost creati.Deci chiar daca fisierele au fost eliminate si au fost create alte fisiere snapshot-ul va exista si va ocupa acelasi spatiu.Bineinteles daca se va crea un fisier de 700Mb vor mai ramane liberi 300Mb chiar daca un snapshot ocupa deja 512Mb deoarece zfs face o copie inainte de orice operatie de scriere. Pentru a crea un snapshot a sistemului de fisiere creat in precedenta , spre exemplu testing2 se va folosi urmatoarea sintaxa zfs snapshot eclipse_mirrorpool/home/testing2@testingsnapshot1 Snapshot-ul se va gasi in sistemul de fisiere eclipse_mirrorpool/home/testing2 sun urmatorul path /eclipse_mirrorpool/home/testing2/.zfs/snapshot (fiecare snapshot va fi readonly) Note: Un ls -a nu va arata directorul .zfs Pentru a face un restore a unui snapshot se poate executa urmatoarea sintaxa: zfs rollback eclipse_mirrorpool/home/testing2@testingsnapshot1 Un snapshot poate fi clonat , cu permisii read/write si montat in oricare alt filesystem Exemplu , vom clona snapshot-ul creat eclipse_mirrorpool/home/testing2@testingsnapshot1 in eclipse_mirrorpool/home zfs clone eclipse_mirrorpool/home/testing2@testingsnapshot1 eclipse_mirrorpool/home/clone_testingsnapshot1 Folosind zfs list se pot vedea toate modificarile facute pana in prezen [eclipse]# zfs list NAME USED AVAIL REFER MOUNTPOINT eclipse_mirrorpool 60.3M 924M 30.0M /eclipse_mirrorpool eclipse_mirrorpool/home 30.1M 170M 24K /eclipse_mirrorpool/home eclipse_mirrorpool/home/clone_testingsnapshot1 0 170M 30.0M /eclipse_mirrorpool/home/clone_testingsnapshot1 eclipse_mirrorpool/home/testing2 30.0M 20.0M 21K /eclipse_mirrorpool/home/testing2 eclipse_mirrorpool/home/testing2@testingsnapshot1 30.0M - 30.0M - Note: Un snapshot nu poate fi eliminat atata timp cat un clone exista, pot fi eliminate dar impreuna zfs destroy -R -f eclipse_mirrorpool/home/testing2@testingsnapshot1 Aceasta sintaxa va distrude un snapshot impreuna cu un clone care ii apartine [eclipse]# zfs list NAME USED AVAIL REFER MOUNTPOINT eclipse_mirrorpool 30.2M 954M 30.0M /eclipse_mirrorpool eclipse_mirrorpool/home 44K 200M 23K /eclipse_mirrorpool/home eclipse_mirrorpool/home/testing2 21K 50.0M 21K /eclipse_mirrorpool/home/testing2 [eclipse]# Acest articul a ilustrat doar cateva aspecte ZFS , pentru a intelege mai bine cum funtioneaza acest sistem de fisiere sunteti rugati sa cititi manualul http://docs.oracle.com/cd/E19253-01/819-5461/index.html Daca aveti intrebari in legatura cu subiectul nu ezitati sa le faceti
-
- filesystem
- solaris
- (and 4 more)
-
serialele la care ma refer sunt difuzate in direct la Realitatea TV in editiile speciale. Am mai vazut o familie terorizata de catre mass media, parintele impreuna cu copiii se uitau atenti la acest serial difuzat pe un post de televiziune din romania.Copiii tremurau in pat si singurul lucru care mia venit in minte era cate alte persoane tremura in pat in romania in fata televizorului.Cati criminali in serie au fost antrenati de catre mass media in decursul acestui timp?Probabil nu reusiti sa intelegeti ce impact poate avea o asemenea informatie asupra populatiei infantile.Nu mai semanati chaos ca nu are rost, duceti-va si faceti putin sql injection , o sa va tina mintea ocupata iar intrun final poate dobanditi niste experienta.
-
In acest articol voi explica cum poate fi creat un conntainer in zolaris ,pentru a intelege mai bine intreaga structura vor trebui citite paginile manualului ,asadar pentru cei interesati sa puna in practica acest lucru RTFM.Diverse manuale le puteti gasi pe site-ul oficial oracle. In solaris un container este echivalent la un vps deoarece procedura este de virtualizare este facuta la nivelul sistemului si functioneaza pe acelasi principiu.Se pot crea diverse zone care pot fi host-uri separate.Zonele nu pot comunica intre ele decat folosind interfata de retea.Fiecare zona vine izolata si fiecare process ruleaza intrun container separat.Solaris poate virtualiza doar sistene solaris si exista 2 moduri pentru a crea aceste zone.Sper sa fie clar conceptul de zona sau container.O zona/container este un host, mai multe zone sunt mai multe host-uri virtuale.Inainte de a explica tipurile de zone care pot fi construite voi adauga urnmatoarele: Sistemul fizic vine definit ca o zona globala in solaris care este montatasub "/" si oricare alta zona vine creata in sistemul fizic va fi definita ca zona secondara "non global zone". Aceste zone pot fi create in 2 moduri 1.Sparse Root Zone Vine creata o zona al carui sistem de fisiere va fi partial mostenit din din sistemul de fisiere prezent in host-ul fizic.Spre exemplu anumite directoare a sistemului fizic vor fi de fapt in sharing cu noul host virtual.Acest lucru implica urmatoarele: Orice packet vine instalat in sistemul fizic va putea fi folosit si de catre sistemul virtual, bineinteles procesul fiecarui executabil va rula in sistemul virtual separat de catre sistemul fizic.Acest model ocupa aproximativ 100Mb pentru fiecare host virtual creat. Exemplu Sparse Root Zone: --------------------------- - **********- -########################*- -# * #*- -# FS * SHARE #*- -# * #*- -# ################*- -# # * *- -# HOST # * SRZ *- -# # * *- -# # * *- -######### **********- - HOST - --------------------------- HOST -> Host fizic SRZ -> Sparsed Root Zone (host virtual (vps)) FS -> Filesystem HOST (fizic) SHARE -> Filesystem HOST (fizic) in sharing cu host-ul virtual Note: Directoarele /usr /lib /sbin /platform /opt a sistemului fizic vor fi in sharing cu sistemul guest virtual. 2.Whole Root Zone Vine creata o zona care va contine o copie a fisierelor din host-ul fizic Fiecare pachet instalat in host-ul fizic nu va fi vazut de catre host-ul virtual, acesta fiind independent. Note: Directoarele /usr /lib /sbin /platform /opt a sistemului fizic vor fi copiate de catre sistemul virtual.Aceasta procedura va ocupa mai mult spatiu. Exemplu Whole Root Zone: --------------------------- - - -######### ********* - -# # * * - -# # * * - -# # * * - -# HOST # * WRZ * - -# FS1 # * FS2 * - -# # * * - -# # * * - -######### ********* - - HOST - --------------------------- HOST -> Host fizic FS1 ->Filesystem HOST (fizic) WRZ -> Host Virtual FS2 ->Filesystem WRZ (virtual) Ambele zone au aceleasi sintaxe pentru a fi create difera doar parametrul unui comand care va specifica tipul de zona. In urmatorul exemplu voi crea o zona "Sparse Root Zone": Zonele pot fi puse in orice tip de filesystem , chiar si pe discuri externe de storage.In exemple voi folosi ca path /export/home/zones Initial va trebui creat directorul care va fi containerul sistemului virtual il voi numi eclipse1 [eclipse]# pwd /export/home/zones [eclipse]# ls -ltr total 2 drwx------ 5 root root 512 Mar 6 04:22 eclipse1 [eclipse]# Pentru securitate am restrictionat acest director in asa fel incat doar user-ul root sa poata face modificari.Noul host virtual va avea o interfata logica care are ca baza interfata fizica a sistemului. zonecfg se ocupa de creare zonelor " zonecfg - set up zone configuration" Poate fi folosit interactiv sau chiar aplicand parametrii necesari in cmdline. [eclipse]# [COLOR="#00FF00"]zonecfg -z eclipse1[/COLOR] eclipse1: No such zone configured Use 'create' to begin configuring a new zone. zonecfg:eclipse1> [COLOR="#00FF00"]create [/COLOR] zonecfg:eclipse1> [COLOR="#00FF00"]set zonepath=/export/home/zones/eclipse1[/COLOR] zonecfg:eclipse1> zonecfg:eclipse1> [COLOR="#00FF00"]add net[/COLOR] zonecfg:eclipse1:net> zonecfg:eclipse1:net> [COLOR="#00FF00"]set address=192.168.123.107[/COLOR] zonecfg:eclipse1:net> [COLOR="#00FF00"]set physical=nfo0[/COLOR] zonecfg:eclipse1:net>[COLOR="#00FF00"]set defrouter=192.168.123.254[/COLOR] zonecfg:eclipse1:net>[COLOR="#00FF00"]info[/COLOR] net: address: 192.168.123.107 physical: nfo0 defrouter: 192.168.123.254 zonecfg:eclipse1:net> zonecfg:eclipse1:net> [COLOR="#00FF00"]end[/COLOR] zonecfg:eclipse1> zonecfg:eclipse1>[COLOR="#00FF00"]verify[/COLOR] zonecfg:eclipse1>[COLOR="#00FF00"]commit[/COLOR] zonecfg:eclipse1>[COLOR="#00FF00"]exit[/COLOR] [eclipse]# Aceasta procedura a creat un fisier de configurare XML unde a stocat toate informatiile pe care le-am introdus pentru noul sistem virtual. Fisierele pot fi gasite in /etc/zones [eclipse]# pwd /etc/zones [eclipse]# ls eclipse1.xml SUNWblank.xml SUNWlx.xml index SUNWdefault.xml SUNWtsoldef.xml [eclipse]# zoneadm - se ocupa de administratea zonelor "zoneadm - administer zones"Pentru a instala zona pe care am configurato se poate folosi urmatoarea sintaxa zoneadm -z eclipse install Preparing to install zone <eclipse1>. Creating list of files to copy from the global zone. Copying <1203> files to the zone. Initializing zone product registry. Determining zone package initialization order. Preparing to initialize <1203> packages on the zone. .................................................... Istalarea zonei va dura aproximativ 10 minute In urmatorul exemplu puteti vedea zonele instalate [eclipse]# zoneadm list -iv ID NAME STATUS PATH BRAND IP 0 global running / native shared - eclipse1 installed /export/home/zones/eclipse1 native shared [eclipse]# Note: Dupa cum observati fiecare zona are un id si un nume.Prima zona care vine identificata de catre valoarea 0 este de fapt sistemul fizic care am spus ca vine recunoscut ca o zona globala si se gaseste sub directorul "/" iar in acest moment e in running deoarece sistemul functioneaza [eclipse]# uptime 7:34am up 2 day(s), 58 min(s), 2 users, load average: 0.00, 0.00, 0.00 [eclipse]# Pentru a porni sistemul virtual pe care l-am creat vom folosi urmatorul comand [eclipse]# zoneadm -z eclipse1 boot [eclipse]# zoneadm list -iv ID NAME STATUS PATH BRAND IP 0 global running / native shared 12 eclipse1 running /export/home/zones/eclipse1 native shared [eclipse]# Urmatorul process confirma faptul ca zona e in running [eclipse]# ps -ef | grep z root 13496 13488 0 06:48:35 pts/1 0:00 sh -c more -s /tmp/mpzUaawA root 13531 1 0 07:35:59 ? 0:00 zoneadmd -z eclipse1 Un alt tool important pus la dispozitie de catre solaris este zlogin Poate fi folosit pentru a intra intro anumita zona avand un shell , e putin echivalent cu serviciul ssh are la baza acelasi principiu. Un parametru important a acestui comand este -C care stabileste o conexiune cu zone in consola.E important pentru a configura ambientul o data ce a fost instalat. zlogin -C eclipse1 Configurarile care au mai ramas de facut ar fi serverurile DNS, Language ,etc, toate acestea se pot face in mod interactiv o data ce a fost stabilita conexiunea in consola.Bineinteles pentru a face un simplu login in sistemul virtual se poate folosi urmatoarea sintaxa zlogin nume_zona [eclipse]# zlogin eclipse1 [Connected to zone 'eclipse1' pts/2] Last login: Tue Mar 6 06:47:30 on pts/2 Oracle Corporation SunOS 5.10 Generic Patch January 2005 # # Shutdown se poate face direct din sistemul virtual sau folosind unul din comenzile de administrare [eclipse]# zoneadm -z eclipse1 halt Note: Tin sa precizez faptul ca nu am setat optiunea set autoboot=true cand am configurat initial aceasta zona , asta inseamna ca nu va porni in momentul in care va face boot sistemul fizic, oricum fisierul de configurare poate fi modificat folosind comandul zonecfg.Pentru a cunoaste in amanunt fiecare parametru a acestor tool-uri de administrare rog sa recurgeti la man pages.Pentru a intra in mod manual in fiecare zona , identificati path-ul unde a fost creata si veti putea ajunge direct in sistemul de fisiere a aceste zone [eclipse]# cd /export/home/zones/eclipse1 [eclipse]# ls dev lu root [eclipse]# cd root [eclipse]# ls bin export lib opt sbin usr dev home mnt platform system var etc kernel net proc tmp [eclipse]# Evident plecand din sistemul fizic se pot doar explora si modifica fisierele dintro anumita zona, nu pot fi insa rulate procese cu drepturile userilor din zona (nu este echivalent cu un shell de login in sistemul guest care a fost virtualizat).Pentru a face login in sistemul care a fost virtualizat zlogin sau oricare alt serviciussh instalat in acel sistem va functiona.Daca sunt intrebari in legatura cu subiectul nu ezitati sa le faceti.
-
- 1
-
- containers
- global
- (and 7 more)
-
Majoritatea server-urilor mondiale rezista atacurilor de tipul DDOS datorita diverselor metode de load balancing si clustering. Ceea ce eu nu concep este faptul ca unii indivizi vor sa para duri , inteligenti, smecheri , hackeri cand creaza un wrapper de tool care poate face pagube.Sunt de acord cu faptul ca sa creezi tool-uri pentru dos si orice alta chestie de acest gen atata timp cat cunosti despre ce e vorba.Adica fiecare javra vine sa imi povesteasca cum sa fac DOS dar habar nu are sa faca doua calcule pentru distribuirea resurselor intrun ambient.Atacurile DOS provoaca saturarea resurselor dar intrebarea mea pentru toti smecherii cu pantaloni atarnati pe cur este careva din voi a configurat sau folosit vreun algoritm pentru distribuirea acestor resurse sau fiecare vine si imi spune bullsh*t ca exista tool-uri care fac DOS si ca exista Protectie Anti DOs.Ceea ce consider eu , este faptul ca s-ar duce pe p*la tot globul daca unul din voi ajunge la putere vreodata.Ceea ce mi sa demonstrat pana in prezent este faptul ca sunteti in grad sa distrugeti ceea ce nu sunteti in grad sa construiti.Daca nu stii sa faci repartizarea resurselor pe activit??i ce rost are sa mai strici oxigenul prin topicuri pe acest forum , dar prostia trebuie sa isi faca efectul intrun mod sau altul.Nu exista tool-uri antidos ci idei care pot fi puse in practica pentru a combate dar nu de catre ratati.E doar o chestie de matematica atacul dos si o formula matematica scrisa in mod mai inteligent va combate intotdeauna un calcul care nu are precizie.Evident formule mai complexe necesita resurse complexe de elaborare.
-
?? ? ?????, ??? ???????-???? ?? ????? ??????? .
-
Nevermind!Am vrut doar sa demonstrez ca trebuie sa stii sa construiesti inainte sa distrugi. Daca va prind ca faceti dos dar habar nu aveti sa configurati un Load Balancer va tai urechile.
-
Pai lamuriti-ma si pe mine Expertilor ce ar trebui sa fac?.Un firewall ajunge cu protectie care incepe cu "anti"?.Un multilayer-load balancing ar fi mai bine?Care din algoritme considerati ca este mai bun in asemenea situatii pentru a distribui fiecare request catre un server de backend? Iluminati-ma cu Ideiile Voastre Stralucite cum sa fac un workload distribution in ambientul compus din 10 servere pe care le am?In acest topic ati postat un tool, si daca careva il descarca imi poate distruge reteaua , Demonstrati-mi cum sa configurez ambientul ,vreau Idei, Multe Idei , Exemple.Sunteti Hackeri si eu va cer ajutorul , Iluminati-ma .
-
O curiozitate: Cum ar trebui sa se protejeze folosind prezervativ? Presupunem ca am 10 servere , reusesti sa mi le protejezi impotriva atacurilor DOS? Te las pe tine sa imi demonstrezi cum ar trebui sa fac workload distribution in asa fel incat sa ma protejez cum ai spus tu mai sus.Astept sfaturile tale.Vom folosi XAMP ca webserver.Dupa inteligenta ta ce algoritm crezi ca e mai bine sa folosesc pentru a distribui fiecare request catre un backend server?E bine sa folosesc un multi-layer load balancing sau ce alte sfaturi imi dai?Raman in asteptarea sfaturilor tale.Multumesc anticipat.
-
N-am zis sa nu faceti hacking ci doar sa va asigurati ca nu dispare capul de pe gat ca ploua direct in stomac. Si oricum e penal tot ce apartine de visual hacking , eu zic sa deschideti topic-ul direct aici daca tot aveti intentia sa o faceti., ma scutiti de o treaba nu il mai mut eu.Premiul nobel pentru ca ati jucat o scena penala in film il luati oricum , statuia e oficiala pe acest forum.Daca nu vorbiti de protocoale cand va referiti la retea voi considera orice scoateti din gura ca un mesaj penal , nu ma intereseaza ca sunteti incepatori sau e primul post pe acest forum.Incepatorii vor trebuii sa studieze protocoalele retelei de azi inainte pentru a putea face hacking inafara retelei de loopback ,daca nu cunoasteti acest lucru veti fi tratati ca inferiori care nu vor sa cunoasca si locul vostru pe acest forum va fi categoria posturi penale sau cosul de gunoi.
-
Seventh 2012 "penal" award Off: Celula 18 a închisorii de la Jilava.Promit sa iti trimit un manual de retelistica dar cum stiu ca nu ai sa il citesti probabil am sa fac un audiobook mp3 , nu sunt sigur daca este permis sa umbli cu un mp3 prin parcurile inchisorii.Eu vreau sa te ajut dar tu nu vrei sa asculti.Sper sa nu nimeresti vreun poponar ca te marita in puscarie .
-
Another bullsh*t topic in this forum
-
Atata timp cat elevul poate alege ceea ce il intereseaza din sistemul de educa?ie oferit online e ok.Fara a fi constrans sa urmeze un program specific precum in majoritatea scolilor vine impus de catre cele mai mari fundatii mondiale care decid cum trebuie modelata plastilina pe viitor. In prezent directivele sistemului scolar vin create de catre cei mai puternici oameni pentru a modela fiecare individ al societatii in asa fel incat sa aduca rezultate pe placul lor.Indivizii nu isi dau seama deoarece s-au nascut dupa ce ideile au fost create.E ca si pestele care de fapt nu stie ca ambientul in care traieste e apa deoarece apa a existat inainte ca pestele sa isi faca aparitia.
-
Nu ti-am dat premiu pentru ca esti incepator ci pentru faptul ca ai inceput.
-
Sixth 2012 "penal" award Off: Daca isp-urile din romania ma angajeaza ca administrator si imi fac o propunere decenta, 90% de pe forum vin arestati de catre garda cu tot cu proxy-urile pe care le folositi si cu tot cu sock-surile private .Garantez eficienta in serviciu.Va bat eu la usa la 7 dimineata si va dau ca premiu un manual de retelistica pe care il puteti rasfoi cu usurinta intre peretii din celula 18 a închisorii de la Jilava.
-
Ca sa nu iti umple google rubrica de mesaje de fiecare data cand trebuie sa faci login In cazul in care ai : Android version 2.1 or later BlackBerry OS 4.5 - 6.0 iPhone iOS 3.1.3 or later Google Authenticator E time based , se schimba in cateva secunde pentru fiecare cont