I am trying to make a basic web crawler. My internet is through proxy connection. So I used the solution given here. But still while running the code I am getting the error.
My code is:
#!/usr/bin/python3.4
import requests
from bs4 import BeautifulSoup
import urllib.request as req
proxies = {
"http": r"http://usr:pass@202.141.80.22:3128",
"https": r"http://usr:pass@202.141.80.22:3128",
}
url = input("Ask user for something")
def santabanta(max_pages,url):
page = 1
while (page <= max_pages):
source_code = requests.get(url,proxies=proxies)
plain_text = source_code.text
print (plain_text)
soup = BeautifulSoup(plain_text,"lxml")
for link in soup.findAll('a'):
href = link.get('href')
print(href)
page = page + 1
santabanta(1,url)
But while running on terminal in ubuntu 14.04 I am getting the following error:
The following error was encountered while trying to retrieve the URL: http://www.santabanta.com/wallpapers/gauhar-khan/?
Cache Access Denied.
Sorry, you are not currently allowed to request http://www.santabanta.com/wallpapers/gauhar-khan/? from this cache until you have authenticated yourself.
The url posted by me is:http://www.santabanta.com/wallpapers/gauhar-khan/
Please help me
asked Feb 13, 2016 at 13:39
- open the url.
- hit F12(chrome user)
- now go to «network» in the menu below.
- hit f5 to reload the page so that chrome records all the data received from server.
- open any of the «received file» and go down to «request header»
- pass all the header to request.get()
.[Here is an image to help you][1]
[1]: http://i.stack.imgur.com/zUEBE.png
Make the header as follows:
headers = { ‘Accept’:’ */ * ‘,
‘Accept-Encoding’:’gzip, deflate, sdch’,
‘Accept-Language’:’en-US,en;q=0.8′,
‘Cache-Control’:’max-age=0′,
‘Connection’:’keep-alive’,
‘Proxy-Authorization’:’Basic ZWRjZ3Vlc3Q6ZWRjZ3Vlc3Q=’,
‘If-Modified-Since’:’Fri, 13 Nov 2015 17:47:23 GMT’,
‘User-Agent’: ‘Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/48.0.2564.116 Safari/537.36’
}
answered Feb 20, 2016 at 5:42
Sumit JhaSumit Jha
2,0552 gold badges20 silver badges35 bronze badges
There is another way to solve this problem.
What you can do is let your python script to use the proxy defined in your environment variable
Open terminal (CTRL + ALT + T)
export http_proxy="http://usr:pass@proxy:port"
export https_proxy="https://usr:pass@proxy:port"
and remove the proxy lines from your code
Here is the changed code:
#!/usr/bin/python3.4
import requests
from bs4 import BeautifulSoup
import urllib.request as req
url = input("Ask user for something")
def santabanta(max_pages,url):
page = 1
while (page <= max_pages):
source_code = requests.get(url)
plain_text = source_code.text
print (plain_text)
soup = BeautifulSoup(plain_text,"lxml")
for link in soup.findAll('a'):
href = link.get('href')
print(href)
page = page + 1
santabanta(1,url)
answered Aug 22, 2016 at 12:54
alphaguyalphaguy
5403 silver badges17 bronze badges
I am trying to make a basic web crawler. My internet is through proxy connection. So I used the solution given here. But still while running the code I am getting the error.
My code is:
#!/usr/bin/python3.4
import requests
from bs4 import BeautifulSoup
import urllib.request as req
proxies = {
"http": r"http://usr:pass@202.141.80.22:3128",
"https": r"http://usr:pass@202.141.80.22:3128",
}
url = input("Ask user for something")
def santabanta(max_pages,url):
page = 1
while (page <= max_pages):
source_code = requests.get(url,proxies=proxies)
plain_text = source_code.text
print (plain_text)
soup = BeautifulSoup(plain_text,"lxml")
for link in soup.findAll('a'):
href = link.get('href')
print(href)
page = page + 1
santabanta(1,url)
But while running on terminal in ubuntu 14.04 I am getting the following error:
The following error was encountered while trying to retrieve the URL: http://www.santabanta.com/wallpapers/gauhar-khan/?
Cache Access Denied.
Sorry, you are not currently allowed to request http://www.santabanta.com/wallpapers/gauhar-khan/? from this cache until you have authenticated yourself.
The url posted by me is:http://www.santabanta.com/wallpapers/gauhar-khan/
Please help me
asked Feb 13, 2016 at 13:39
- open the url.
- hit F12(chrome user)
- now go to «network» in the menu below.
- hit f5 to reload the page so that chrome records all the data received from server.
- open any of the «received file» and go down to «request header»
- pass all the header to request.get()
.[Here is an image to help you][1]
[1]: http://i.stack.imgur.com/zUEBE.png
Make the header as follows:
headers = { ‘Accept’:’ */ * ‘,
‘Accept-Encoding’:’gzip, deflate, sdch’,
‘Accept-Language’:’en-US,en;q=0.8′,
‘Cache-Control’:’max-age=0′,
‘Connection’:’keep-alive’,
‘Proxy-Authorization’:’Basic ZWRjZ3Vlc3Q6ZWRjZ3Vlc3Q=’,
‘If-Modified-Since’:’Fri, 13 Nov 2015 17:47:23 GMT’,
‘User-Agent’: ‘Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/48.0.2564.116 Safari/537.36’
}
answered Feb 20, 2016 at 5:42
Sumit JhaSumit Jha
2,0552 gold badges20 silver badges35 bronze badges
There is another way to solve this problem.
What you can do is let your python script to use the proxy defined in your environment variable
Open terminal (CTRL + ALT + T)
export http_proxy="http://usr:pass@proxy:port"
export https_proxy="https://usr:pass@proxy:port"
and remove the proxy lines from your code
Here is the changed code:
#!/usr/bin/python3.4
import requests
from bs4 import BeautifulSoup
import urllib.request as req
url = input("Ask user for something")
def santabanta(max_pages,url):
page = 1
while (page <= max_pages):
source_code = requests.get(url)
plain_text = source_code.text
print (plain_text)
soup = BeautifulSoup(plain_text,"lxml")
for link in soup.findAll('a'):
href = link.get('href')
print(href)
page = page + 1
santabanta(1,url)
answered Aug 22, 2016 at 12:54
alphaguyalphaguy
5403 silver badges17 bronze badges
Permalink
Cannot retrieve contributors at this time
This file contains bidirectional Unicode text that may be interpreted or compiled differently than what appears below. To review, open the file in an editor that reveals hidden Unicode characters.
Learn more about bidirectional Unicode characters
<!DOCTYPE HTML PUBLIC «-//W3C//DTD HTML 4.01 Transitional//EN» «http://www.w3.org/TR/html4/loose.dtd»> | |
<HTML><HEAD><META HTTP-EQUIV=»Content-Type» CONTENT=»text/html; charset=windows-1251″> | |
<TITLE>ОШИБКА: Доступ к кэшу запрещён.</TITLE> | |
<STYLE type=»text/css»><!—BODY{background-color:#ffffff;font-family:verdana,sans-serif}PRE{font-family:sans-serif}—></STYLE> | |
</HEAD> | |
<BODY> | |
<H1>ОШИБКА</H1> | |
<H2>Доступ к кэшу запрещён</H2> | |
<HR noshade size=»1px»> | |
<P> | |
Во время доставки URL: | |
<A HREF=»%U»>%U</A> | |
<P> | |
Произошла следующая ошибка: | |
<UL> | |
<LI> | |
<STRONG> | |
Доступ к кэшу запрещён | |
</STRONG> | |
</UL> | |
</P> | |
<P>Извините, Вы не можете запросить: | |
<PRE> %U</PRE> | |
из этого кэша до тех пор, пока не пройдёте аутентификацию. | |
</P> | |
<P> | |
Для этого Вам необходим Netscape версии 2.0 либо выше, или Microsoft Internet | |
Explorer 3.0, или HTTP/1.1 совместимый броузер. Пожалуйста свяжитесь | |
с <A HREF=»mailto:%w»>администратором кэша</a>, если у Вас возникли проблемы | |
с аутентификацией, либо <A HREF=»http://%h/cgi-bin/chpasswd.cgi»>смените</a> | |
Ваш пароль по умолчанию. | |
</P> |
02.03.17 — 17:50
На сайте npchk.nalog.ru есть возможность проверить контрагентов как гет запросом, так и с помощью вебсервиса.
Пытаюсь подцепить данный вебсервис и выдает ошибку:
При вызове веб-сервиса произошла ошибка. Ошибка HTTP: HTTP Status 407.
.
ERROR Cache Доступ запрещён. При получении URL http://npchk.nalog.ru/FNSNDSCAWS_2 произошла следующая ошибка Доступ к кэшу запрещён. Извините, Вы не можете запросить http://npchk.nalog.ru/FNSNDSCAWS_2 из этого кэша до тех пор, пока не пройдёте аутентификацию. Please contact the cache administrator if you have difficulties authenticating yourself. Создано Thu, 02 Mar 2017 14:43:37 GMT на прокси (squid/3.3.8)
код:
прокси1 = новый ИнтернетПрокси;
прокси1.Установить(«http», «прокси», порт);
прокси1.Пользователь=»проксилогин»;
прокси1.Пароль =»проксипароль»;
Определение = Новый WSОпределения(«http://npchk.nalog.ru/FNSNDSCAWS_2?wsdl»,»проксилогин»,»проксипароль»,прокси1);
Прокси = Новый WSПрокси(Определение, «http://ws.unisoft»;, «FNSNDSCAWS2», «FNSNDSCAWS2_Port»);
Запрос = Прокси.ФабрикаXDTO.Создать(Прокси.ФабрикаXDTO.Тип(«http://ws.unisoft/FNSNDSCAWS2/Request»;, «NdsRequest2»));
Контрагент = Прокси.ФабрикаXDTO.Создать(Прокси.ФабрикаXDTO.Тип(«http://ws.unisoft/FNSNDSCAWS2/Request»;, «NdsRequest2_NP»));
ДанныеК = новый запрос;
ДанныеК.Текст =»ВЫБРАТЬ ПЕРВЫЕ 30
| Контрагенты.ИНН,
| Контрагенты.КПП
|ИЗ
| Справочник.Контрагенты КАК Контрагенты
|ГДЕ
| Контрагенты.ИНН <> &ИНН» ;
ДанныеК.УстановитьПараметр(«ИНН»,»»);
ДанныеПоКонтрагентам = ДанныеК.Выполнить().Выгрузить();
Для каждого ДанныеПоКонтрагенту Из ДанныеПоКонтрагентам Цикл
Контрагент.INN = ДанныеПоКонтрагенту.ИНН;
Контрагент.KPP = ДанныеПоКонтрагенту.КПП;
Контрагент.DT = Формат(ТекущаяДата(), «ДФ=dd.MM.yyyy»);
Запрос.NP.Добавить(Контрагент);
КонецЦикла;
РезультатЗапроса = Прокси.NdsRequest2(Запрос);
Для каждого ОтветДляКонтрагента из РезультатЗапроса.NP Цикл
Сообщить(ОтветДляКонтрагента.State);
КонецЦикла;
ошибка возникает при попытке получить РезультатЗапроса.
ошибка 407 — проблемы с прокси, но где его еще указать не понимаю.
при чем это на 8.3, на 8.2 в описании WSОпределения вообще нет возможности передать ИнтернетПрокси
может кто знает в чем ошибка?
4 — 03.03.17 — 12:00
(1) Вроде нет, ИнтернетПрокси я передаю в WSОпределения, а с WSПрокси работаю дальше
(2) Почитал, у меня все настроено уже для второй версии
Вообще раньше делал через Пост-запрос напрямую на сайт, но пару недель как появилась ошибка «Произошла исключительная ситуация (WinHttp.WinHttpRequest): Не удается установить соединение с сервером» при отработке WinHttp.Send(ТекСтрока) хотя сайт работает и настройки Прокси актуальные
-
Dekabryi
- Любопытный
- Сообщения: 15
- Зарегистрирован: 29 янв 2016 07:56
SqUid3 + ntlm (как найти ошибку ?)
Доброе время суток.
Воспользовался серией статей для установки и настройки SQUID + AD.
Но увы где то допустил ошибку.
Прошу помощи в нахождении оной.
Суть такая, Basic работает и пускает пользователей согласно списка групп.
Но если я включаю NTLM, IE упорно спрашивает пароль, а Chrom не спрашивает кто я такой.
С Ubuntu я на вы.
————————————
access.log пишет
TCP_DENIED/407 3980 CONNECT clients4.google.com:443 — HIER_NONE/- text/html
———————————-
testparm
Load smb config files from /etc/samba/smb.conf
rlimit_max: increasing rlimit_max (1024) to minimum Windows limit (16384)
Loaded services file OK.
Server role: ROLE_DOMAIN_MEMBER
Press enter to see a dump of your service definitions
[global]
workgroup = ABS
realm = ABS.LOCOL
interfaces = 172.16.0.0/24
bind interfaces only = Yes
security = ADS
winbind enum users = Yes
winbind enum groups = Yes
winbind use default domain = Yes
winbind nss info = rfc2307
idmap config ABS:range = 10000-80000
idmap config ABS:backend = rid
idmap config *:range = 10000-80000
idmap config * : backend = tdb
———————————-
sudo net ads keytab list
Warning: «kerberos method» must be set to a keytab method to use keytab functions.
Vno Type Principal
3 des-cbc-crc HTTP/al-sgw002.ABS.locol@ABS.LOCOL
3 des-cbc-md5 HTTP/al-sgw002.ABS.locol@ABS.LOCOL
3 arcfour-hmac-md5 HTTP/al-sgw002.ABS.locol@ABS.LOCOL
3 aes256-cts-hmac-sha1-96 HTTP/al-sgw002.ABS.locol@ABS.LOCOL
3 aes128-cts-hmac-sha1-96 HTTP/al-sgw002.ABS.locol@ABS.LOCOL
———————
al-sgw002:~$ sudo getent group winbindd_priv
winbindd_priv129:proxy
——————
al-sgw002:~$ sudo ps -aux | grep /usr/sbin/squid3
proxy 3672 0.0 1.2 132124 39432 ? Ss Қаң28 0:16 /usr/sbin/squid3 -N -YC -f /etc/squid3/squid.conf
Прошу наставлений на путь истинный.
-
Dekabryi
- Любопытный
- Сообщения: 15
- Зарегистрирован: 29 янв 2016 07:56
Re: SqUid3 + ntlm (как найти ошибку ?)
Сообщение
Dekabryi » 29 янв 2016 08:48
# SQUID 3.3.8 Configuration
# ——————————————————————————
#
# OPTIONS FOR AUTHENTICATION
# ——————————————————————————
#
# Negotiate Kerberos and NTLM authentication
#—-
auth_param negotiate program /usr/lib/squid3/negotiate_wrapper_auth —ntlm /usr/bin/ntlm_auth —diagnostics —helper-protocol=squid-2.5-ntlmssp —kerberos /usr/lib/squid3/negotiate_kerberos_auth -r -s «HTTP/al-sgw002.abs.locol@abs.locol»
auth_param negotiate children 200 startup=50 idle=10
auth_param negotiate keep_alive off
# Only NTLM authentication
#—
auth_param ntlm program /usr/bin/ntlm_auth —diagnostics —helper-protocol=squid-2.5-ntlmssp
auth_param ntlm children 100 startup=20 idle=5
auth_param ntlm keep_alive off
# Basic authentication via ldap for clients not authenticated via kerberos/ntlm
auth_param basic program /usr/lib/squid3/basic_ldap_auth -v 3 -P -R -b «dc=abs,dc=locol» -D «squid@abs.locol» -W «/etc/squid3/conf_param_ldappass.txt» -f «sAMAccountName=%s» -h 172.16.0.32
auth_param basic children 20
auth_param basic realm «DC1 SQUID Proxy Server Basic authentication!»
auth_param basic credentialsttl 2 hours
# ACCESS CONTROLS
# ——————————————————————————
#
# LDAP authorization
external_acl_type memberof ttl=3600 ipv4 %LOGIN /usr/lib/squid3/ext_ldap_group_acl -v 3 -P -R -K -b «dc=abs,dc=locol» -D «squid@abs.locol» -W «/etc/squid3/conf_param_ldappass.txt» -f «(&(objectclass=person)(sAMAccountName=%v)(memberOf:1.2.840.113556.1.4.1941:=cn=%g,OU=internet,OU=Groups,DC=abs,DC=locol))» -h 172.16.0.32
#
-
Dekabryi
- Любопытный
- Сообщения: 15
- Зарегистрирован: 29 янв 2016 07:56
Re: SqUid3 + ntlm (как найти ошибку ?)
Сообщение
Dekabryi » 29 янв 2016 08:53
У пользователя вот такая ошибка
*************
ERROR
Cache Доступ запрещён.
———————————————————————————
При получении URL http://ya.ru/ произошла следующая ошибка
Доступ к кэшу запрещён.
Извините, Вы не можете запросить http://ya.ru/ из этого кэша до тех пор, пока не пройдёте аутентификацию.
************************************************
-
Алексей Максимов
- Администратор сайта
- Сообщения: 571
- Зарегистрирован: 14 сен 2012 06:50
- Откуда: г.Сыктывкар
- Контактная информация:
Re: SqUid3 + ntlm (как найти ошибку ?)
Сообщение
Алексей Максимов » 29 янв 2016 09:06
Вполне возможно что проблема вообще с Kerberos а не с NTLM.
Попробуйте отключить вообще Kerberos используя только NTLM аутентификацию.
Для этого закомментируйте блок:
Код: Выделить всё
# -----------------------------------------------------------------------------
#
# Negotiate Kerberos and NTLM authentication
#----
##auth_param negotiate program /usr/lib/squid3/negotiate_wrapper_auth --ntlm /usr/bin/ntlm_auth --diagnostics --helper-protocol=squid-2.5-ntlmssp --kerberos /usr/lib/squid3/negotiate_kerberos_auth -r -s "HTTP/al-sgw002.abs.locol@abs.locol"
##auth_param negotiate children 200 startup=50 idle=10
##auth_param negotiate keep_alive off
И оставьте только NTLM
Код: Выделить всё
# Only NTLM authentication
#---
auth_param ntlm program /usr/bin/ntlm_auth --diagnostics --helper-protocol=squid-2.5-ntlmssp
auth_param ntlm children 100 startup=20 idle=5
auth_param ntlm keep_alive off
-
Dekabryi
- Любопытный
- Сообщения: 15
- Зарегистрирован: 29 янв 2016 07:56
Re: SqUid3 + ntlm (как найти ошибку ?)
Сообщение
Dekabryi » 29 янв 2016 10:01
лог большой получается
Вот что есть
******
GET http://ya.ru/ HTTP/1.1
Accept: image/jpeg, image/gif, image/pjpeg, application/x-ms-application, application/xaml+xml, application/x-ms-xbap, */*
Accept-Language: en-US
User-Agent: Mozilla/4.0 (compatible; MSIE 8.0; Windows NT 6.1; WOW64; Trident/4.0; SLCC2; .NET CLR 2.0.50727; .NET CLR 3.5.30729; .NET CLR 3.0.30729)
Accept-Encoding: gzip, deflate
Proxy-Connection: Keep-Alive
Proxy-Authorization: NTLM TlRMTVNTUAADAAAAGAAYAIYAAAAYABgAngAAABAAEABYAAAAGAAYAGgAAAAGAAYAgAAAAAAAAAC2AAAABYKIogYBsB0AAAAP4SSU5+MEcqbYze1b5MkfIUsAQQBaAE4ASQBJAFMAQQBhAGYAaQBsAG8AbgB0AHMAZQB2AF8AbQBEAEMAMQDiEh65ByIdFAAAAAAAAAAAAAAAAAAAAADLbM4D7elgvineGvpNRdCbxJTwAbDKQFM=
Host: ya.ru
———-
2016/01/29 15:36:43.160| comm.cc(773) commSetConnTimeout: local=172.16.0.1:3128 remote=172.16.0.32:63072 FD 10 flags=1 timeout 86400
2016/01/29 15:36:43.160| url.cc(386) urlParse: urlParse: Split URL ‘http://ya.ru/’ into proto=’http’, host=’ya.ru’, port=’80’, path=’/’
2016/01/29 15:36:43.160| Address.cc(409) LookupHostIP: Given Non-IP ‘ya.ru’: Name or service not known
2016/01/29 15:36:43.160| client_side.cc(840) clientSetKeepaliveFlag: clientSetKeepaliveFlag: http_ver = 1.1
2016/01/29 15:36:43.160| client_side.cc(842) clientSetKeepaliveFlag: clientSetKeepaliveFlag: method = GET
2016/01/29 15:36:43.160| client_side_request.cc(162) ClientRequestContext: 0x7f16caf70018 ClientRequestContext constructed
2016/01/29 15:36:43.160| client_side_request.cc(1554) doCallouts: Doing calloutContext->hostHeaderVerify()
2016/01/29 15:36:43.160| client_side_request.cc(674) hostHeaderVerify: validate host=ya.ru, port=0, portStr=NULL
2016/01/29 15:36:43.160| client_side_request.cc(688) hostHeaderVerify: validate skipped.
2016/01/29 15:36:43.160| client_side_request.cc(1561) doCallouts: Doing calloutContext->clientAccessCheck()
2016/01/29 15:36:43.160| Checklist.cc(153) preCheck: 0x7f16caf524c8 checking slow rules
2016/01/29 15:36:43.160| Checklist.cc(160) checkAccessList: 0x7f16caf524c8 checking ‘http_access deny !Safe_ports’
2016/01/29 15:36:43.160| Acl.cc(336) matches: ACLList::matches: checking !Safe_ports
2016/01/29 15:36:43.160| Acl.cc(319) checklistMatches: ACL::checklistMatches: checking ‘Safe_ports’
2016/01/29 15:36:43.160| Acl.cc(321) checklistMatches: ACL::ChecklistMatches: result for ‘Safe_ports’ is 1
2016/01/29 15:36:43.160| Checklist.cc(275) matchNode: 0x7f16caf524c8 matched=0 async=0 finished=0
2016/01/29 15:36:43.160| Checklist.cc(299) matchNode: 0x7f16caf524c8 simple mismatch
2016/01/29 15:36:43.160| Checklist.cc(160) checkAccessList: 0x7f16caf524c8 checking ‘http_access deny CONNECT !SSL_ports’
2016/01/29 15:36:43.160| Acl.cc(336) matches: ACLList::matches: checking CONNECT
2016/01/29 15:36:43.160| Acl.cc(319) checklistMatches: ACL::checklistMatches: checking ‘CONNECT’
2016/01/29 15:36:43.160| Acl.cc(321) checklistMatches: ACL::ChecklistMatches: result for ‘CONNECT’ is 0
2016/01/29 15:36:43.160| Checklist.cc(275) matchNode: 0x7f16caf524c8 matched=0 async=0 finished=0
2016/01/29 15:36:43.160| Checklist.cc(299) matchNode: 0x7f16caf524c8 simple mismatch
2016/01/29 15:36:43.160| Checklist.cc(160) checkAccessList: 0x7f16caf524c8 checking ‘http_access allow localhost manager’
2016/01/29 15:36:43.160| Acl.cc(336) matches: ACLList::matches: checking localhost
2016/01/29 15:36:43.160| Acl.cc(319) checklistMatches: ACL::checklistMatches: checking ‘localhost’
2016/01/29 15:36:43.160| Ip.cc(560) match: aclIpMatchIp: ‘172.16.0.32:63072’ NOT found
2016/01/29 15:36:43.160| Acl.cc(321) checklistMatches: ACL::ChecklistMatches: result for ‘localhost’ is 0
2016/01/29 15:36:43.160| Checklist.cc(275) matchNode: 0x7f16caf524c8 matched=0 async=0 finished=0
2016/01/29 15:36:43.160| Checklist.cc(299) matchNode: 0x7f16caf524c8 simple mismatch
2016/01/29 15:36:43.160| Checklist.cc(160) checkAccessList: 0x7f16caf524c8 checking ‘http_access allow localnet manager’
2016/01/29 15:36:43.160| Acl.cc(336) matches: ACLList::matches: checking localnet
2016/01/29 15:36:43.160| Acl.cc(319) checklistMatches: ACL::checklistMatches: checking ‘localnet’
2016/01/29 15:36:43.160| Ip.cc(560) match: aclIpMatchIp: ‘172.16.0.32:63072’ found
2016/01/29 15:36:43.160| Acl.cc(321) checklistMatches: ACL::ChecklistMatches: result for ‘localnet’ is 1
2016/01/29 15:36:43.160| Checklist.cc(275) matchNode: 0x7f16caf524c8 matched=1 async=0 finished=0
2016/01/29 15:36:43.160| Acl.cc(336) matches: ACLList::matches: checking manager
2016/01/29 15:36:43.160| Acl.cc(319) checklistMatches: ACL::checklistMatches: checking ‘manager’
2016/01/29 15:36:43.160| RegexData.cc(71) match: aclRegexData::match: checking ‘http://ya.ru/’
2016/01/29 15:36:43.160| RegexData.cc(82) match: aclRegexData::match: looking for ‘(^cache_object://)’
2016/01/29 15:36:43.160| RegexData.cc(82) match: aclRegexData::match: looking for ‘(^https?://[^/]+/squid-internal-mgr/)’
2016/01/29 15:36:43.161| Acl.cc(321) checklistMatches: ACL::ChecklistMatches: result for ‘manager’ is 0
2016/01/29 15:36:43.161| Checklist.cc(275) matchNode: 0x7f16caf524c8 matched=0 async=0 finished=0
2016/01/29 15:36:43.161| Checklist.cc(299) matchNode: 0x7f16caf524c8 simple mismatch
2016/01/29 15:36:43.161| Checklist.cc(160) checkAccessList: 0x7f16caf524c8 checking ‘http_access deny manager’
2016/01/29 15:36:43.161| Acl.cc(336) matches: ACLList::matches: checking manager
2016/01/29 15:36:43.161| Acl.cc(319) checklistMatches: ACL::checklistMatches: checking ‘manager’
2016/01/29 15:36:43.161| RegexData.cc(71) match: aclRegexData::match: checking ‘http://ya.ru/’
2016/01/29 15:36:43.161| RegexData.cc(82) match: aclRegexData::match: looking for ‘(^cache_object://)’
2016/01/29 15:36:43.161| RegexData.cc(82) match: aclRegexData::match: looking for ‘(^https?://[^/]+/squid-internal-mgr/)’
2016/01/29 15:36:43.161| Acl.cc(321) checklistMatches: ACL::ChecklistMatches: result for ‘manager’ is 0
2016/01/29 15:36:43.161| Checklist.cc(275) matchNode: 0x7f16caf524c8 matched=0 async=0 finished=0
2016/01/29 15:36:43.161| Checklist.cc(299) matchNode: 0x7f16caf524c8 simple mismatch
2016/01/29 15:36:43.161| Checklist.cc(160) checkAccessList: 0x7f16caf524c8 checking ‘http_access allow GlobalWUSites LocalWUServers’
2016/01/29 15:36:43.161| Acl.cc(336) matches: ACLList::matches: checking GlobalWUSites
2016/01/29 15:36:43.161| Acl.cc(319) checklistMatches: ACL::checklistMatches: checking ‘GlobalWUSites’
2016/01/29 15:36:43.161| DomainData.cc(131) match: aclMatchDomainList: checking ‘ya.ru’
2016/01/29 15:36:43.161| DomainData.cc(135) match: aclMatchDomainList: ‘ya.ru’ NOT found
2016/01/29 15:36:43.161| Acl.cc(321) checklistMatches: ACL::ChecklistMatches: result for ‘GlobalWUSites’ is 0
2016/01/29 15:36:43.161| Checklist.cc(275) matchNode: 0x7f16caf524c8 matched=0 async=0 finished=0
2016/01/29 15:36:43.161| Checklist.cc(299) matchNode: 0x7f16caf524c8 simple mismatch
2016/01/29 15:36:43.161| Checklist.cc(160) checkAccessList: 0x7f16caf524c8 checking ‘http_access allow prioritysites localnet’
2016/01/29 15:36:43.161| Acl.cc(336) matches: ACLList::matches: checking prioritysites
2016/01/29 15:36:43.161| Acl.cc(319) checklistMatches: ACL::checklistMatches: checking ‘prioritysites’
2016/01/29 15:36:43.161| DomainData.cc(131) match: aclMatchDomainList: checking ‘ya.ru’
2016/01/29 15:36:43.161| DomainData.cc(135) match: aclMatchDomainList: ‘ya.ru’ NOT found
2016/01/29 15:36:43.161| Acl.cc(321) checklistMatches: ACL::ChecklistMatches: result for ‘prioritysites’ is 0
2016/01/29 15:36:43.161| Checklist.cc(275) matchNode: 0x7f16caf524c8 matched=0 async=0 finished=0
2016/01/29 15:36:43.161| Checklist.cc(299) matchNode: 0x7f16caf524c8 simple mismatch
2016/01/29 15:36:43.161| Checklist.cc(160) checkAccessList: 0x7f16caf524c8 checking ‘http_access deny !auth’
2016/01/29 15:36:43.161| Acl.cc(336) matches: ACLList::matches: checking !auth
2016/01/29 15:36:43.161| Acl.cc(319) checklistMatches: ACL::checklistMatches: checking ‘auth’
2016/01/29 15:36:43.161| Acl.cc(321) checklistMatches: ACL::ChecklistMatches: result for ‘auth’ is -1
2016/01/29 15:36:43.161| Checklist.cc(275) matchNode: 0x7f16caf524c8 matched=0 async=1 finished=0
2016/01/29 15:36:43.161| Checklist.cc(312) matchNode: 0x7f16caf524c8 going async
2016/01/29 15:36:43.161| Checklist.cc(131) asyncInProgress: ACLChecklist::asyncInProgress: 0x7f16caf524c8 async set to 1
2016/01/29 15:36:43.161| AclProxyAuth.cc(144) checkForAsync: checking password via authenticator
2016/01/29 15:36:43.161| Checklist.cc(256) matchNodes: 0x7f16caf524c8 awaiting async operation
2016/01/29 15:36:43.161| IoCallback.cc(108) finish: called for local=[::] remote=[::] FD 9 flags=1 (0, 0)
2016/01/29 15:36:43.161| comm.cc(145) commHandleRead: comm_read_try: FD 9, size 4095, retval 49, errno 0
2016/01/29 15:36:43.161| IoCallback.cc(108) finish: called for local=[::] remote=[::] FD 9 flags=1 (0, 0)
2016/01/29 15:36:43.161| helper.cc(1013) helperStatefulHandleRead: helperStatefulHandleRead: end of reply found
2016/01/29 15:36:43.161| helper.cc(471) helperStatefulReleaseServer: srv-0 flags.reserved = 1
ERROR: NTLM Authentication validating user. Error returned ‘BH NT_STATUS_UNSUCCESSFUL NT_STATUS_UNSUCCESSFUL’
*******
-
Dekabryi
- Любопытный
- Сообщения: 15
- Зарегистрирован: 29 янв 2016 07:56
Re: SqUid3 + ntlm (как найти ошибку ?)
Сообщение
Dekabryi » 29 янв 2016 10:10
wbinfo -t
стал показывать
al-sgw002:~$ wbinfo -t
checking the trust secret for domain ABS via RPC calls failed
failed to call wbcCheckTrustCredentials: WBC_ERR_WINBIND_NOT_AVAILABLE