Ошибка доступ к кэшу запрещен

I am trying to make a basic web crawler. My internet is through proxy connection. So I used the solution given here. But still while running the code I am getting the error. My code is: #!/usr...

I am trying to make a basic web crawler. My internet is through proxy connection. So I used the solution given here. But still while running the code I am getting the error.
My code is:

#!/usr/bin/python3.4
import requests
from bs4 import BeautifulSoup

import urllib.request as req
proxies = {
    "http": r"http://usr:pass@202.141.80.22:3128",
    "https": r"http://usr:pass@202.141.80.22:3128",
}

url = input("Ask user for something")

def santabanta(max_pages,url):
    page = 1
    while (page <= max_pages):      
        source_code = requests.get(url,proxies=proxies)
        plain_text  = source_code.text
        print (plain_text)  
        soup = BeautifulSoup(plain_text,"lxml")
        for link in soup.findAll('a'):
            href = link.get('href')
            print(href)
        page = page + 1
santabanta(1,url)

But while running on terminal in ubuntu 14.04 I am getting the following error:

The following error was encountered while trying to retrieve the URL: http://www.santabanta.com/wallpapers/gauhar-khan/?

Cache Access Denied.

Sorry, you are not currently allowed to request http://www.santabanta.com/wallpapers/gauhar-khan/? from this cache until you have authenticated yourself.

The url posted by me is:http://www.santabanta.com/wallpapers/gauhar-khan/

Please help me

asked Feb 13, 2016 at 13:39

Kevin Pandya's user avatar

  1. open the url.
  2. hit F12(chrome user)
  3. now go to «network» in the menu below.
  4. hit f5 to reload the page so that chrome records all the data received from server.
  5. open any of the «received file» and go down to «request header»
  6. pass all the header to request.get()

.[Here is an image to help you][1]
[1]: http://i.stack.imgur.com/zUEBE.png

Make the header as follows:

headers = { ‘Accept’:’ */ * ‘,
‘Accept-Encoding’:’gzip, deflate, sdch’,
‘Accept-Language’:’en-US,en;q=0.8′,
‘Cache-Control’:’max-age=0′,
‘Connection’:’keep-alive’,
‘Proxy-Authorization’:’Basic ZWRjZ3Vlc3Q6ZWRjZ3Vlc3Q=’,
‘If-Modified-Since’:’Fri, 13 Nov 2015 17:47:23 GMT’,
‘User-Agent’: ‘Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/48.0.2564.116 Safari/537.36’
}

answered Feb 20, 2016 at 5:42

Sumit Jha's user avatar

Sumit JhaSumit Jha

2,0552 gold badges20 silver badges35 bronze badges

There is another way to solve this problem.
What you can do is let your python script to use the proxy defined in your environment variable

Open terminal (CTRL + ALT + T)

export http_proxy="http://usr:pass@proxy:port"
export https_proxy="https://usr:pass@proxy:port"

and remove the proxy lines from your code
Here is the changed code:

#!/usr/bin/python3.4
import requests
from bs4 import BeautifulSoup

import urllib.request as req
url = input("Ask user for something")

def santabanta(max_pages,url):
    page = 1
    while (page <= max_pages):      
        source_code = requests.get(url)
        plain_text  = source_code.text
        print (plain_text)  
        soup = BeautifulSoup(plain_text,"lxml")
        for link in soup.findAll('a'):
            href = link.get('href')
            print(href)
        page = page + 1
santabanta(1,url)

answered Aug 22, 2016 at 12:54

alphaguy's user avatar

alphaguyalphaguy

5403 silver badges17 bronze badges

I am trying to make a basic web crawler. My internet is through proxy connection. So I used the solution given here. But still while running the code I am getting the error.
My code is:

#!/usr/bin/python3.4
import requests
from bs4 import BeautifulSoup

import urllib.request as req
proxies = {
    "http": r"http://usr:pass@202.141.80.22:3128",
    "https": r"http://usr:pass@202.141.80.22:3128",
}

url = input("Ask user for something")

def santabanta(max_pages,url):
    page = 1
    while (page <= max_pages):      
        source_code = requests.get(url,proxies=proxies)
        plain_text  = source_code.text
        print (plain_text)  
        soup = BeautifulSoup(plain_text,"lxml")
        for link in soup.findAll('a'):
            href = link.get('href')
            print(href)
        page = page + 1
santabanta(1,url)

But while running on terminal in ubuntu 14.04 I am getting the following error:

The following error was encountered while trying to retrieve the URL: http://www.santabanta.com/wallpapers/gauhar-khan/?

Cache Access Denied.

Sorry, you are not currently allowed to request http://www.santabanta.com/wallpapers/gauhar-khan/? from this cache until you have authenticated yourself.

The url posted by me is:http://www.santabanta.com/wallpapers/gauhar-khan/

Please help me

asked Feb 13, 2016 at 13:39

Kevin Pandya's user avatar

  1. open the url.
  2. hit F12(chrome user)
  3. now go to «network» in the menu below.
  4. hit f5 to reload the page so that chrome records all the data received from server.
  5. open any of the «received file» and go down to «request header»
  6. pass all the header to request.get()

.[Here is an image to help you][1]
[1]: http://i.stack.imgur.com/zUEBE.png

Make the header as follows:

headers = { ‘Accept’:’ */ * ‘,
‘Accept-Encoding’:’gzip, deflate, sdch’,
‘Accept-Language’:’en-US,en;q=0.8′,
‘Cache-Control’:’max-age=0′,
‘Connection’:’keep-alive’,
‘Proxy-Authorization’:’Basic ZWRjZ3Vlc3Q6ZWRjZ3Vlc3Q=’,
‘If-Modified-Since’:’Fri, 13 Nov 2015 17:47:23 GMT’,
‘User-Agent’: ‘Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/48.0.2564.116 Safari/537.36’
}

answered Feb 20, 2016 at 5:42

Sumit Jha's user avatar

Sumit JhaSumit Jha

2,0552 gold badges20 silver badges35 bronze badges

There is another way to solve this problem.
What you can do is let your python script to use the proxy defined in your environment variable

Open terminal (CTRL + ALT + T)

export http_proxy="http://usr:pass@proxy:port"
export https_proxy="https://usr:pass@proxy:port"

and remove the proxy lines from your code
Here is the changed code:

#!/usr/bin/python3.4
import requests
from bs4 import BeautifulSoup

import urllib.request as req
url = input("Ask user for something")

def santabanta(max_pages,url):
    page = 1
    while (page <= max_pages):      
        source_code = requests.get(url)
        plain_text  = source_code.text
        print (plain_text)  
        soup = BeautifulSoup(plain_text,"lxml")
        for link in soup.findAll('a'):
            href = link.get('href')
            print(href)
        page = page + 1
santabanta(1,url)

answered Aug 22, 2016 at 12:54

alphaguy's user avatar

alphaguyalphaguy

5403 silver badges17 bronze badges

Permalink

Cannot retrieve contributors at this time


This file contains bidirectional Unicode text that may be interpreted or compiled differently than what appears below. To review, open the file in an editor that reveals hidden Unicode characters.
Learn more about bidirectional Unicode characters

Show hidden characters

<!DOCTYPE HTML PUBLIC «-//W3C//DTD HTML 4.01 Transitional//EN» «http://www.w3.org/TR/html4/loose.dtd»>
<HTML><HEAD><META HTTP-EQUIV=»Content-Type» CONTENT=»text/html; charset=windows-1251″>
<TITLE>ОШИБКА: Доступ к кэшу запрещён.</TITLE>
<STYLE type=»text/css»><!—BODY{background-color:#ffffff;font-family:verdana,sans-serif}PRE{font-family:sans-serif}—></STYLE>
</HEAD>
<BODY>
<H1>ОШИБКА</H1>
<H2>Доступ к кэшу запрещён</H2>
<HR noshade size=»1px»>
<P>
Во время доставки URL:
<A HREF=»%U»>%U</A>
<P>
Произошла следующая ошибка:
<UL>
<LI>
<STRONG>
Доступ к кэшу запрещён
</STRONG>
</UL>
</P>
<P>Извините, Вы не можете запросить:
<PRE> %U</PRE>
из этого кэша до тех пор, пока не пройдёте аутентификацию.
</P>
<P>
Для этого Вам необходим Netscape версии 2.0 либо выше, или Microsoft Internet
Explorer 3.0, или HTTP/1.1 совместимый броузер. Пожалуйста свяжитесь
с <A HREF=»mailto:%w»>администратором кэша</a>, если у Вас возникли проблемы
с аутентификацией, либо <A HREF=»http://%h/cgi-bin/chpasswd.cgi»>смените</a>
Ваш пароль по умолчанию.
</P>

   rooffy

02.03.17 — 17:50

На сайте npchk.nalog.ru есть возможность проверить контрагентов как гет запросом, так и с помощью вебсервиса.

Пытаюсь подцепить данный вебсервис и выдает ошибку:

При вызове веб-сервиса произошла ошибка. Ошибка HTTP:  HTTP Status 407.

.

ERROR Cache Доступ запрещён.  При получении URL http://npchk.nalog.ru/FNSNDSCAWS_2 произошла следующая ошибка   Доступ к кэшу запрещён.   Извините, Вы не можете запросить http://npchk.nalog.ru/FNSNDSCAWS_2 из этого кэша до тех пор, пока не пройдёте аутентификацию.  Please contact the cache administrator if you have difficulties authenticating yourself.   Создано Thu, 02 Mar 2017 14:43:37 GMT на прокси (squid/3.3.8)  

код:

    прокси1 = новый ИнтернетПрокси;

    прокси1.Установить(«http», «прокси», порт);

    прокси1.Пользователь=»проксилогин»;

    прокси1.Пароль =»проксипароль»;

    Определение = Новый WSОпределения(«http://npchk.nalog.ru/FNSNDSCAWS_2?wsdl»,»проксилогин»,»проксипароль»,прокси1);

    Прокси = Новый WSПрокси(Определение, «http://ws.unisoft»;, «FNSNDSCAWS2», «FNSNDSCAWS2_Port»);

    Запрос = Прокси.ФабрикаXDTO.Создать(Прокси.ФабрикаXDTO.Тип(«http://ws.unisoft/FNSNDSCAWS2/Request»;, «NdsRequest2»));

    Контрагент = Прокси.ФабрикаXDTO.Создать(Прокси.ФабрикаXDTO.Тип(«http://ws.unisoft/FNSNDSCAWS2/Request»;, «NdsRequest2_NP»));

    
    ДанныеК = новый запрос;

    ДанныеК.Текст =»ВЫБРАТЬ ПЕРВЫЕ 30

                  |    Контрагенты.ИНН,

                  |    Контрагенты.КПП

                  |ИЗ

                  |    Справочник.Контрагенты КАК Контрагенты

                  |ГДЕ

                  |    Контрагенты.ИНН <> &ИНН» ;

    ДанныеК.УстановитьПараметр(«ИНН»,»»);                  

    ДанныеПоКонтрагентам = ДанныеК.Выполнить().Выгрузить();

    Для каждого ДанныеПоКонтрагенту Из ДанныеПоКонтрагентам Цикл

        Контрагент.INN = ДанныеПоКонтрагенту.ИНН;

        Контрагент.KPP = ДанныеПоКонтрагенту.КПП;

        Контрагент.DT = Формат(ТекущаяДата(), «ДФ=dd.MM.yyyy»);

        
        Запрос.NP.Добавить(Контрагент);

    КонецЦикла;  

    
    РезультатЗапроса = Прокси.NdsRequest2(Запрос);

    
    Для каждого ОтветДляКонтрагента из РезультатЗапроса.NP Цикл

        Сообщить(ОтветДляКонтрагента.State);

    КонецЦикла;

ошибка возникает при попытке получить РезультатЗапроса.

ошибка 407 — проблемы с прокси, но где его еще указать не понимаю.

при чем это на 8.3, на 8.2 в описании WSОпределения вообще нет возможности передать ИнтернетПрокси

может кто знает в чем ошибка?

   rooffy

4 — 03.03.17 — 12:00

(1) Вроде нет, ИнтернетПрокси я передаю в WSОпределения, а с WSПрокси работаю дальше

(2) Почитал, у меня все настроено уже для второй версии

Вообще раньше делал через Пост-запрос напрямую на сайт, но пару недель как появилась ошибка «Произошла исключительная ситуация (WinHttp.WinHttpRequest): Не удается установить соединение с сервером» при отработке WinHttp.Send(ТекСтрока) хотя сайт работает и настройки Прокси актуальные

Dekabryi

Любопытный
Сообщения: 15
Зарегистрирован: 29 янв 2016 07:56

SqUid3 + ntlm (как найти ошибку ?)

Доброе время суток.

Воспользовался серией статей для установки и настройки SQUID + AD.

Но увы где то допустил ошибку.
Прошу помощи в нахождении оной.
Суть такая, Basic работает и пускает пользователей согласно списка групп.
Но если я включаю NTLM, IE упорно спрашивает пароль, а Chrom не спрашивает кто я такой.

С Ubuntu я на вы.

————————————
access.log пишет
TCP_DENIED/407 3980 CONNECT clients4.google.com:443 — HIER_NONE/- text/html
———————————-
testparm
Load smb config files from /etc/samba/smb.conf
rlimit_max: increasing rlimit_max (1024) to minimum Windows limit (16384)
Loaded services file OK.
Server role: ROLE_DOMAIN_MEMBER
Press enter to see a dump of your service definitions

[global]
workgroup = ABS
realm = ABS.LOCOL
interfaces = 172.16.0.0/24
bind interfaces only = Yes
security = ADS
winbind enum users = Yes
winbind enum groups = Yes
winbind use default domain = Yes
winbind nss info = rfc2307
idmap config ABS:range = 10000-80000
idmap config ABS:backend = rid
idmap config *:range = 10000-80000
idmap config * : backend = tdb
———————————-
sudo net ads keytab list

Warning: «kerberos method» must be set to a keytab method to use keytab functions.
Vno Type Principal
3 des-cbc-crc HTTP/al-sgw002.ABS.locol@ABS.LOCOL
3 des-cbc-md5 HTTP/al-sgw002.ABS.locol@ABS.LOCOL
3 arcfour-hmac-md5 HTTP/al-sgw002.ABS.locol@ABS.LOCOL
3 aes256-cts-hmac-sha1-96 HTTP/al-sgw002.ABS.locol@ABS.LOCOL
3 aes128-cts-hmac-sha1-96 HTTP/al-sgw002.ABS.locol@ABS.LOCOL

———————
al-sgw002:~$ sudo getent group winbindd_priv
winbindd_priv:x:129:proxy
——————
al-sgw002:~$ sudo ps -aux | grep /usr/sbin/squid3
proxy 3672 0.0 1.2 132124 39432 ? Ss Қаң28 0:16 /usr/sbin/squid3 -N -YC -f /etc/squid3/squid.conf

Прошу наставлений на путь истинный.

Dekabryi

Любопытный
Сообщения: 15
Зарегистрирован: 29 янв 2016 07:56

Re: SqUid3 + ntlm (как найти ошибку ?)

Сообщение

Dekabryi » 29 янв 2016 08:48

# SQUID 3.3.8 Configuration
# ——————————————————————————
#
# OPTIONS FOR AUTHENTICATION
# ——————————————————————————
#
# Negotiate Kerberos and NTLM authentication
#—-
auth_param negotiate program /usr/lib/squid3/negotiate_wrapper_auth —ntlm /usr/bin/ntlm_auth —diagnostics —helper-protocol=squid-2.5-ntlmssp —kerberos /usr/lib/squid3/negotiate_kerberos_auth -r -s «HTTP/al-sgw002.abs.locol@abs.locol»
auth_param negotiate children 200 startup=50 idle=10
auth_param negotiate keep_alive off

# Only NTLM authentication
#—
auth_param ntlm program /usr/bin/ntlm_auth —diagnostics —helper-protocol=squid-2.5-ntlmssp
auth_param ntlm children 100 startup=20 idle=5
auth_param ntlm keep_alive off

# Basic authentication via ldap for clients not authenticated via kerberos/ntlm
auth_param basic program /usr/lib/squid3/basic_ldap_auth -v 3 -P -R -b «dc=abs,dc=locol» -D «squid@abs.locol» -W «/etc/squid3/conf_param_ldappass.txt» -f «sAMAccountName=%s» -h 172.16.0.32
auth_param basic children 20
auth_param basic realm «DC1 SQUID Proxy Server Basic authentication!»
auth_param basic credentialsttl 2 hours

# ACCESS CONTROLS
# ——————————————————————————
#
# LDAP authorization
external_acl_type memberof ttl=3600 ipv4 %LOGIN /usr/lib/squid3/ext_ldap_group_acl -v 3 -P -R -K -b «dc=abs,dc=locol» -D «squid@abs.locol» -W «/etc/squid3/conf_param_ldappass.txt» -f «(&(objectclass=person)(sAMAccountName=%v)(memberOf:1.2.840.113556.1.4.1941:=cn=%g,OU=internet,OU=Groups,DC=abs,DC=locol))» -h 172.16.0.32
#

Dekabryi

Любопытный
Сообщения: 15
Зарегистрирован: 29 янв 2016 07:56

Re: SqUid3 + ntlm (как найти ошибку ?)

Сообщение

Dekabryi » 29 янв 2016 08:53

У пользователя вот такая ошибка
*************
ERROR
Cache Доступ запрещён.

———————————————————————————

При получении URL http://ya.ru/ произошла следующая ошибка

Доступ к кэшу запрещён.

Извините, Вы не можете запросить http://ya.ru/ из этого кэша до тех пор, пока не пройдёте аутентификацию.
************************************************

Аватара пользователя

Алексей Максимов

Администратор сайта
Сообщения: 571
Зарегистрирован: 14 сен 2012 06:50
Откуда: г.Сыктывкар
Контактная информация:

Re: SqUid3 + ntlm (как найти ошибку ?)

Сообщение

Алексей Максимов » 29 янв 2016 09:06

Вполне возможно что проблема вообще с Kerberos а не с NTLM.
Попробуйте отключить вообще Kerberos используя только NTLM аутентификацию.
Для этого закомментируйте блок:

Код: Выделить всё

# -----------------------------------------------------------------------------
#
# Negotiate Kerberos and NTLM authentication
#----
##auth_param negotiate program /usr/lib/squid3/negotiate_wrapper_auth --ntlm /usr/bin/ntlm_auth --diagnostics --helper-protocol=squid-2.5-ntlmssp --kerberos /usr/lib/squid3/negotiate_kerberos_auth -r -s "HTTP/al-sgw002.abs.locol@abs.locol"
##auth_param negotiate children 200 startup=50 idle=10
##auth_param negotiate keep_alive off

И оставьте только NTLM

Код: Выделить всё

# Only NTLM authentication
#---
auth_param ntlm program /usr/bin/ntlm_auth --diagnostics --helper-protocol=squid-2.5-ntlmssp
auth_param ntlm children 100 startup=20 idle=5
auth_param ntlm keep_alive off

Dekabryi

Любопытный
Сообщения: 15
Зарегистрирован: 29 янв 2016 07:56

Re: SqUid3 + ntlm (как найти ошибку ?)

Сообщение

Dekabryi » 29 янв 2016 10:01

лог большой получается
Вот что есть
******
GET http://ya.ru/ HTTP/1.1
Accept: image/jpeg, image/gif, image/pjpeg, application/x-ms-application, application/xaml+xml, application/x-ms-xbap, */*
Accept-Language: en-US
User-Agent: Mozilla/4.0 (compatible; MSIE 8.0; Windows NT 6.1; WOW64; Trident/4.0; SLCC2; .NET CLR 2.0.50727; .NET CLR 3.5.30729; .NET CLR 3.0.30729)
Accept-Encoding: gzip, deflate
Proxy-Connection: Keep-Alive
Proxy-Authorization: NTLM TlRMTVNTUAADAAAAGAAYAIYAAAAYABgAngAAABAAEABYAAAAGAAYAGgAAAAGAAYAgAAAAAAAAAC2AAAABYKIogYBsB0AAAAP4SSU5+MEcqbYze1b5MkfIUsAQQBaAE4ASQBJAFMAQQBhAGYAaQBsAG8AbgB0AHMAZQB2AF8AbQBEAEMAMQDiEh65ByIdFAAAAAAAAAAAAAAAAAAAAADLbM4D7elgvineGvpNRdCbxJTwAbDKQFM=
Host: ya.ru

———-
2016/01/29 15:36:43.160| comm.cc(773) commSetConnTimeout: local=172.16.0.1:3128 remote=172.16.0.32:63072 FD 10 flags=1 timeout 86400
2016/01/29 15:36:43.160| url.cc(386) urlParse: urlParse: Split URL ‘http://ya.ru/’ into proto=’http’, host=’ya.ru’, port=’80’, path=’/’
2016/01/29 15:36:43.160| Address.cc(409) LookupHostIP: Given Non-IP ‘ya.ru’: Name or service not known
2016/01/29 15:36:43.160| client_side.cc(840) clientSetKeepaliveFlag: clientSetKeepaliveFlag: http_ver = 1.1
2016/01/29 15:36:43.160| client_side.cc(842) clientSetKeepaliveFlag: clientSetKeepaliveFlag: method = GET
2016/01/29 15:36:43.160| client_side_request.cc(162) ClientRequestContext: 0x7f16caf70018 ClientRequestContext constructed
2016/01/29 15:36:43.160| client_side_request.cc(1554) doCallouts: Doing calloutContext->hostHeaderVerify()
2016/01/29 15:36:43.160| client_side_request.cc(674) hostHeaderVerify: validate host=ya.ru, port=0, portStr=NULL
2016/01/29 15:36:43.160| client_side_request.cc(688) hostHeaderVerify: validate skipped.
2016/01/29 15:36:43.160| client_side_request.cc(1561) doCallouts: Doing calloutContext->clientAccessCheck()
2016/01/29 15:36:43.160| Checklist.cc(153) preCheck: 0x7f16caf524c8 checking slow rules
2016/01/29 15:36:43.160| Checklist.cc(160) checkAccessList: 0x7f16caf524c8 checking ‘http_access deny !Safe_ports’
2016/01/29 15:36:43.160| Acl.cc(336) matches: ACLList::matches: checking !Safe_ports
2016/01/29 15:36:43.160| Acl.cc(319) checklistMatches: ACL::checklistMatches: checking ‘Safe_ports’
2016/01/29 15:36:43.160| Acl.cc(321) checklistMatches: ACL::ChecklistMatches: result for ‘Safe_ports’ is 1
2016/01/29 15:36:43.160| Checklist.cc(275) matchNode: 0x7f16caf524c8 matched=0 async=0 finished=0
2016/01/29 15:36:43.160| Checklist.cc(299) matchNode: 0x7f16caf524c8 simple mismatch
2016/01/29 15:36:43.160| Checklist.cc(160) checkAccessList: 0x7f16caf524c8 checking ‘http_access deny CONNECT !SSL_ports’
2016/01/29 15:36:43.160| Acl.cc(336) matches: ACLList::matches: checking CONNECT
2016/01/29 15:36:43.160| Acl.cc(319) checklistMatches: ACL::checklistMatches: checking ‘CONNECT’
2016/01/29 15:36:43.160| Acl.cc(321) checklistMatches: ACL::ChecklistMatches: result for ‘CONNECT’ is 0
2016/01/29 15:36:43.160| Checklist.cc(275) matchNode: 0x7f16caf524c8 matched=0 async=0 finished=0
2016/01/29 15:36:43.160| Checklist.cc(299) matchNode: 0x7f16caf524c8 simple mismatch
2016/01/29 15:36:43.160| Checklist.cc(160) checkAccessList: 0x7f16caf524c8 checking ‘http_access allow localhost manager’
2016/01/29 15:36:43.160| Acl.cc(336) matches: ACLList::matches: checking localhost
2016/01/29 15:36:43.160| Acl.cc(319) checklistMatches: ACL::checklistMatches: checking ‘localhost’
2016/01/29 15:36:43.160| Ip.cc(560) match: aclIpMatchIp: ‘172.16.0.32:63072’ NOT found
2016/01/29 15:36:43.160| Acl.cc(321) checklistMatches: ACL::ChecklistMatches: result for ‘localhost’ is 0
2016/01/29 15:36:43.160| Checklist.cc(275) matchNode: 0x7f16caf524c8 matched=0 async=0 finished=0
2016/01/29 15:36:43.160| Checklist.cc(299) matchNode: 0x7f16caf524c8 simple mismatch
2016/01/29 15:36:43.160| Checklist.cc(160) checkAccessList: 0x7f16caf524c8 checking ‘http_access allow localnet manager’
2016/01/29 15:36:43.160| Acl.cc(336) matches: ACLList::matches: checking localnet
2016/01/29 15:36:43.160| Acl.cc(319) checklistMatches: ACL::checklistMatches: checking ‘localnet’
2016/01/29 15:36:43.160| Ip.cc(560) match: aclIpMatchIp: ‘172.16.0.32:63072’ found
2016/01/29 15:36:43.160| Acl.cc(321) checklistMatches: ACL::ChecklistMatches: result for ‘localnet’ is 1
2016/01/29 15:36:43.160| Checklist.cc(275) matchNode: 0x7f16caf524c8 matched=1 async=0 finished=0
2016/01/29 15:36:43.160| Acl.cc(336) matches: ACLList::matches: checking manager
2016/01/29 15:36:43.160| Acl.cc(319) checklistMatches: ACL::checklistMatches: checking ‘manager’
2016/01/29 15:36:43.160| RegexData.cc(71) match: aclRegexData::match: checking ‘http://ya.ru/’
2016/01/29 15:36:43.160| RegexData.cc(82) match: aclRegexData::match: looking for ‘(^cache_object://)’
2016/01/29 15:36:43.160| RegexData.cc(82) match: aclRegexData::match: looking for ‘(^https?://[^/]+/squid-internal-mgr/)’
2016/01/29 15:36:43.161| Acl.cc(321) checklistMatches: ACL::ChecklistMatches: result for ‘manager’ is 0
2016/01/29 15:36:43.161| Checklist.cc(275) matchNode: 0x7f16caf524c8 matched=0 async=0 finished=0
2016/01/29 15:36:43.161| Checklist.cc(299) matchNode: 0x7f16caf524c8 simple mismatch
2016/01/29 15:36:43.161| Checklist.cc(160) checkAccessList: 0x7f16caf524c8 checking ‘http_access deny manager’
2016/01/29 15:36:43.161| Acl.cc(336) matches: ACLList::matches: checking manager
2016/01/29 15:36:43.161| Acl.cc(319) checklistMatches: ACL::checklistMatches: checking ‘manager’
2016/01/29 15:36:43.161| RegexData.cc(71) match: aclRegexData::match: checking ‘http://ya.ru/’
2016/01/29 15:36:43.161| RegexData.cc(82) match: aclRegexData::match: looking for ‘(^cache_object://)’
2016/01/29 15:36:43.161| RegexData.cc(82) match: aclRegexData::match: looking for ‘(^https?://[^/]+/squid-internal-mgr/)’
2016/01/29 15:36:43.161| Acl.cc(321) checklistMatches: ACL::ChecklistMatches: result for ‘manager’ is 0
2016/01/29 15:36:43.161| Checklist.cc(275) matchNode: 0x7f16caf524c8 matched=0 async=0 finished=0
2016/01/29 15:36:43.161| Checklist.cc(299) matchNode: 0x7f16caf524c8 simple mismatch
2016/01/29 15:36:43.161| Checklist.cc(160) checkAccessList: 0x7f16caf524c8 checking ‘http_access allow GlobalWUSites LocalWUServers’
2016/01/29 15:36:43.161| Acl.cc(336) matches: ACLList::matches: checking GlobalWUSites
2016/01/29 15:36:43.161| Acl.cc(319) checklistMatches: ACL::checklistMatches: checking ‘GlobalWUSites’
2016/01/29 15:36:43.161| DomainData.cc(131) match: aclMatchDomainList: checking ‘ya.ru’
2016/01/29 15:36:43.161| DomainData.cc(135) match: aclMatchDomainList: ‘ya.ru’ NOT found
2016/01/29 15:36:43.161| Acl.cc(321) checklistMatches: ACL::ChecklistMatches: result for ‘GlobalWUSites’ is 0
2016/01/29 15:36:43.161| Checklist.cc(275) matchNode: 0x7f16caf524c8 matched=0 async=0 finished=0
2016/01/29 15:36:43.161| Checklist.cc(299) matchNode: 0x7f16caf524c8 simple mismatch
2016/01/29 15:36:43.161| Checklist.cc(160) checkAccessList: 0x7f16caf524c8 checking ‘http_access allow prioritysites localnet’
2016/01/29 15:36:43.161| Acl.cc(336) matches: ACLList::matches: checking prioritysites
2016/01/29 15:36:43.161| Acl.cc(319) checklistMatches: ACL::checklistMatches: checking ‘prioritysites’
2016/01/29 15:36:43.161| DomainData.cc(131) match: aclMatchDomainList: checking ‘ya.ru’
2016/01/29 15:36:43.161| DomainData.cc(135) match: aclMatchDomainList: ‘ya.ru’ NOT found
2016/01/29 15:36:43.161| Acl.cc(321) checklistMatches: ACL::ChecklistMatches: result for ‘prioritysites’ is 0
2016/01/29 15:36:43.161| Checklist.cc(275) matchNode: 0x7f16caf524c8 matched=0 async=0 finished=0
2016/01/29 15:36:43.161| Checklist.cc(299) matchNode: 0x7f16caf524c8 simple mismatch
2016/01/29 15:36:43.161| Checklist.cc(160) checkAccessList: 0x7f16caf524c8 checking ‘http_access deny !auth’
2016/01/29 15:36:43.161| Acl.cc(336) matches: ACLList::matches: checking !auth
2016/01/29 15:36:43.161| Acl.cc(319) checklistMatches: ACL::checklistMatches: checking ‘auth’
2016/01/29 15:36:43.161| Acl.cc(321) checklistMatches: ACL::ChecklistMatches: result for ‘auth’ is -1
2016/01/29 15:36:43.161| Checklist.cc(275) matchNode: 0x7f16caf524c8 matched=0 async=1 finished=0
2016/01/29 15:36:43.161| Checklist.cc(312) matchNode: 0x7f16caf524c8 going async
2016/01/29 15:36:43.161| Checklist.cc(131) asyncInProgress: ACLChecklist::asyncInProgress: 0x7f16caf524c8 async set to 1
2016/01/29 15:36:43.161| AclProxyAuth.cc(144) checkForAsync: checking password via authenticator
2016/01/29 15:36:43.161| Checklist.cc(256) matchNodes: 0x7f16caf524c8 awaiting async operation
2016/01/29 15:36:43.161| IoCallback.cc(108) finish: called for local=[::] remote=[::] FD 9 flags=1 (0, 0)
2016/01/29 15:36:43.161| comm.cc(145) commHandleRead: comm_read_try: FD 9, size 4095, retval 49, errno 0
2016/01/29 15:36:43.161| IoCallback.cc(108) finish: called for local=[::] remote=[::] FD 9 flags=1 (0, 0)
2016/01/29 15:36:43.161| helper.cc(1013) helperStatefulHandleRead: helperStatefulHandleRead: end of reply found
2016/01/29 15:36:43.161| helper.cc(471) helperStatefulReleaseServer: srv-0 flags.reserved = 1
ERROR: NTLM Authentication validating user. Error returned ‘BH NT_STATUS_UNSUCCESSFUL NT_STATUS_UNSUCCESSFUL’
*******

Dekabryi

Любопытный
Сообщения: 15
Зарегистрирован: 29 янв 2016 07:56

Re: SqUid3 + ntlm (как найти ошибку ?)

Сообщение

Dekabryi » 29 янв 2016 10:10

wbinfo -t
стал показывать
al-sgw002:~$ wbinfo -t
checking the trust secret for domain ABS via RPC calls failed
failed to call wbcCheckTrustCredentials: WBC_ERR_WINBIND_NOT_AVAILABLE

Понравилась статья? Поделить с друзьями:
  • Ошибка доступ к диску запрещен
  • Ошибка двигателя чек киа рио
  • Ошибка дк1 ваз 2114
  • Ошибка доступ запрещен возможна csrf атака
  • Ошибка двигателя хендай ix35