cwbe coordinatez:
101
63540
63542
2109677
940127
1973047
1972657
1973256
1973336

ABSOLUT
KYBERIA
permissions
you: r,
system: public
net: yes

neurons

stats|by_visit|by_K
source
tiamat
K|my_K|given_K
last
commanders
polls

total descendants::
total children::1
show[ 2 | 3] flat


ako ja nerypem len tak pre nic za nic. freebsd bezim na par celkom dolezitych serveroch a problemy ako nefunkcny driver na intel sietovku, pripadne pomale citanie su realne problemy, s ktorymi sa dennodenne stretavam a ktore magicky zmizli na tych par serveroch, kde som mal chut a cas hodit tam debian.

a fakt, ze jednoducho na freebsd nespravim distribuovany, resp. clustrovany filesystem je realne obmedzenie, ktore mi naozaj realne komplikuje zivot.

inac ked uz sme pri tom, skusal niekto Arla na FreeBSD? to je jediny slubny projekt, ktory sa crta na distribuovany fs (aj ked ten port je broken a je to len klient, takze server bude musiet byt na linuxe aj tak).

rozmyslal som aj nad failover rieseni cez geom gate (geom a fyzicky device dat do vinumu do raid-1 a robit failover), ale tam neviem ako predidem split brain efektu, ktory by mi poskodil filesystem (ktory navyse nie je journalovy, teda nie clustrovo journalovy).

teda jednoducha, prakticka otazka, ktoru teraz realne riesim: ako spravim 100% redundantny sietovy storage.

Potrebujem proste /var/www s rovnakymi datami viditelne z X nod (minimalne 2) tak, ze ani jeden nie je master, teda ked ktorakolvek masina v clustri spadne, data vidim znova a ked sa nahodi, tak sa tie data zreplikuju.

Lebo toto su podla mna realne problemy, ktore treba v sucasnosti riesit, nie ze ci sa bude robit device polling alebo ci zrychlim scheduler o 1.5%.

ja tie zmeny vo freebsd vitam, ale zdaleka mi nevyriesia problemy, potesia ma, ale svet je uz daleko viac technologicky vpredu....




00000101000635400006354202109677009401270197304701972657019732560197333601973356
uz.nebudem.tolko.fetovat
 uz.nebudem.tolko.fetovat      09.11.2005 - 15:44:22 , level: 1, UP   NEW
mno tak proste je to pre inu target societu :)