Squid hay que reiniciar Firefox para que funcione

Forums: 

Como andan!!!!
A ver si me dan una pista de como solucionar el problema que tengo con el Squid, administro una red con 100pc, y note que en algunas maquinas el Squid no filtra nada, pueden navegar libremente, hasta que luego de reiniciar el browse un par de veses (pasa tanto con el IE y el FFx) comienza a denegar las paginas donde hay palabras prohibidas....
me llama la atencion que el squid se comporte de esta manera, a lo mejor habra que tocar algo de la config. de cualquier manera si a algien paso alguna ves esto y me pueda dar una mano se lo agredeceria...

saludos...

tienes funcionando el squid

Imagen de falcom

tienes funcionando el squid en forma trasnparente? recuerda q las reglas en squid se leen una x una, de pronto una de tus reglas esta mal, postea la parte pertinente de tu squid.conf

Ok te paso el codigo.. la

Ok te paso el codigo.. la config esta en transparente, a ver si me das una mano con esto..

acl manager proto cache_object
acl localhost src 127.0.0.1/32
acl to_localhost dst 127.0.0.0/8
acl SSL_ports port 443
acl Safe_ports port 80 # http
acl Safe_ports port 21 # ftp
acl Safe_ports port 443 # https
acl Safe_ports port 70 # gopher
acl Safe_ports port 210 # wais
acl Safe_ports port 1025-65535 # unregistered ports
acl Safe_ports port 280 # http-mgmt
acl Safe_ports port 488 # gss-http
acl Safe_ports port 591 # filemaker
acl Safe_ports port 777 # multiling http
acl CONNECT method CONNECT
acl redpermitida src 0.0.0.0/0.0.0.0
acl ippermitidas src "/etc/squid3/acl/ippermitidas"
acl nocachear dstdomain "/etc/squid3/acl/no_cache"
acl porno url_regex -i "/etc/squid3/acl/denegar"
acl noporno url_regex -i "/etc/squid3/acl/aceptar"
http_access allow manager localhost
http_access deny manager
http_access deny !Safe_ports
http_access deny CONNECT !SSL_ports
http_access allow localhost
http_access allow ippermitidas
http_access allow noporno
http_access deny porno
http_access allow redpermitida
http_access deny all
icp_access deny all
htcp_access deny all
http_port 3128 transparent
hierarchy_stoplist cgi-bin ?
cache_mem 350 MB
maximum_object_size_in_memory 5000 KB
cache_dir ufs /var/spool/squid3 10000 16 256
cache_swap_low 90
cache_swap_high 95
access_log /var/log/squid3/access.log squid
cache_store_log none
no_cache deny nocachear
refresh_pattern ^ftp: 1440 20% 10080
refresh_pattern ^gopher: 1440 0% 1440
refresh_pattern (cgi-bin|\?) 0 0% 0
refresh_pattern . 0 20% 4320
visible_hostname Informatica
icp_port 3130
error_directory /usr/share/squid3/errors/Spanish/
always_direct allow nocachear
offline_mode on
coredump_dir /var/spool/squid3

separar

Imagen de luiseduardo73

separa las ip por departamentos y a cada departamento hasle reglas de acceso es decir en el http_access allow contabilidad pag_conta y las denegadas despues de deny all

luis eduardo parrales g.

luiseduardo73 no se entiende

luiseduardo73 no se entiende bien la solucion que propones, en principio la red es una sola, no hay necesidad de separ por depto como decis, es una red de clase C 192.168.0.0 con mascara 255.255.252.0

saludos...

organizar squid

Imagen de luiseduardo73

es obvio que es un solo segmento de red,lo que pretendo explicar es que hagas archivos seccionando un conjunto de ip's
por ejemplo

contabilidad
192.168.0.10
192.168.0.11
192.168.0.12

pag_conta
.sri.gov.ec
.supercias.gov.ec

donde contabilidad es el grupo de personas de contabilidad que va a ser direccionado por squid a pag_conta en las lineas de http_access allow contabilidad pag_contabilidad

claro antes en los acl debes haberlos descrito

luis eduardo parrales g.