!! Transparent SQUID !!

Roman Neuhauser neuhauser at sigpipe.cz
Wed Jun 1 15:10:13 CEST 2005


# freebsd at devnet.sk / 2005-06-01 14:55:19 +0200:
> Cituji z emailu od Roman Neuhauser <neuhauser at sigpipe.cz>:
> 
> > # freebsd at devnet.sk / 2005-06-01 14:03:47 +0200:
> > > Quoting Roman Neuhauser <neuhauser at sigpipe.cz>:
> > >
> > > > # freebsd at devnet.sk / 2005-06-01 10:10:48 +0200:
> > > > > PC1 = gateway: IP:213.151.240.120
> > > > >      ethernety: sk0 - 213.151.240.119 - PRIPOJENIE NA NET
> > > > >                 sk1 - 213.151.240.121 - PC2 - PROXY
> > > > >                 sk2 - 192.168.15.1 - local network (tento pc sluzi ako
> > gw
> > > > pre
> > > > > 192.168.15.0)
> > > > >
> > > > > a potrebujem rozbehnut transparentneho squida. Mam nastavene vsetko
> > podla
> > > > > http://ezine.daemonnews.org/200209/squid.html
> > > > >
> > > > > Natovanie mam takto, cez ipnat:
> > > > >
> > > > > map sk0 192.168.15.0/24 -> 0.0.0.0/32
> > > > > map sk0 213.151.240.0/24 -> 0.0.0.0/32
> > > > >
> > > > > #rdr sk2 192.168.15.0/24 port 80 -> 213.151.240.121 port 3128 tcp
> > > > (pokialmam
> > > > > toto zapnute, tak mi nefunguje http z local netork)
> > > >
> > > >     Co znamena "nefunguje http"?
> >
> >     Tahle otazka nebyla zodpovezena.
> >     Kam az skutecne dojdou pakety HTTP requestu z nejakeho stroje
> >     za sk2?
> >     Jaky provoz mezi squidem a gatewayi vygeneruje takovy pozadavek?

    Vzdavam se, nemam silu s Vami bojovat o to, jestli na otazky,
    ktere by eventualne vedly k vyreseni *Vaseho* problemu, odpovite,
    nebo ne. Jelikoz Vas metodicky pristup prilis neinteresuje,
    popreju Vam hodne stesti pri nahodilych upravach konfigurace.

> >     Co je v log souborech squidu?
> 
> prave ze sa do accesslogu nezapisuje nic
> podla mna bude chyba v natovani, alebo niecom.... neviem

    Podle me bude chyba mezi zidli a klavesnici.

-- 
How many Vietnam vets does it take to screw in a light bulb?
You don't know, man.  You don't KNOW.
Cause you weren't THERE.             http://bash.org/?255991



More information about the Users-l mailing list