Segmentation Violation In Task [FORMAT ]
(OP)
23 Jan 09 16:18
I am running into a issues as stated bellow:
Can anybody here shed some light for me? what possibly might cause this problem?
Segmentation Violation In Task [ FORMAT ]
/ap/p/sas_mod004/sas/SASFoundation/9.2/sasexe/sas:do_traceback+0xd1
/ap/p/sas_mod004/sas/SASFoundation/9.2/sasexe/sas:tktracex+0x1c
/ap/p/sas_mod004/sas/SASFoundation/9.2/sasexe/sas:ht_handle_program_fault+0x217
/ap/p/sas_mod004/sas/SASFoundation/9.2/sasexe/sas:catchpgm+0x58
/ap/p/sas_mod004/sas/SASFoundation/9.2/sasexe/tkmk.so:bkt_signal_handler+0x1c9
/lib/amd64/libc.so.1:0xd00b6
/lib/amd64/libc.so.1:0xc53a2
/lib/amd64/libc.so.1:_memcpy+0xd2 [ Signal 11 (SEGV)]
/ap/p/sas_mod004/sas/SASFoundation/9.2/sasexe/sase7l:ylwobj+0xb19
/ap/p/sas_mod004/sas/SASFoundation/9.2/sasexe/sase7l:e7lmwt+0x931
/ap/p/sas_mod004/sas/SASFoundation/9.2/sasexe/sase7:e7lclos+0x666
/ap/p/sas_mod004/sas/SASFoundation/9.2/sasexe/sasyh:ylclos3+0x5b8
/ap/p/sas_mod004/sas/SASFoundation/9.2/sasexe/sasyh:ylclose+0x66
/ap/p/sas_mod004/sas/SASFoundation/9.2/sasexe/sasforma:sasforma+0x452
/ap/p/sas_mod004/sas/SASFoundation/9.2/sasexe/sas:vvtentr+0xe9
/lib/amd64/libc.so.1:0x4ef60
0xfffffd7ffbdfe2e4
SAS WTABORT (FORMAT) The SAS System has detected an abort condition. An Exception occurred during wthtrm().
Please Contact Technical Support.
Tasks
[MAIN ] [WAITING ] pri[ 5] reb[FED8E590] WC[0] WN[1]
[IDLETASK] [READY ] pri[ 9] reb[FED8E590]
[EVENTTSK] [WAITING ] pri[ 0] reb[FED8E590] WC[0] WN[1]
[sasxkern] [WAITING ] pri[ 3] reb[FED8E590] WC[0] WN[1]
[Session ] [WAITING ] pri[ 3] reb[FCA9A260] WC[0] WN[1]
[TKSRV ] [WAITING ] pri[ 3] reb[FCA9A820] WC[0] WN[1]
[Program ] [WAITING ] pri[ 7] reb[FCA9B010] WC[0] WN[1]
[SASODR ] [WAITING ] pri[ 3] reb[FCA79EC0] WC[0] WN[1]
[FORMAT ] [RUNNING ] pri[ 7] reb[FCA7BD90]
Traceback
No Traceback Available
NOTE: PROCEDURE FORMAT used (Total process time):
real time 7:46.60
user cpu time 5:55.21
system cpu time 51.72 seconds
Memory 6087981k
OS Memory 6956756k
Timestamp 1/22/2009 12:43:13 AM
Page Faults 0
Page Reclaims 0
Page Swaps 0
Voluntary Context Switches 735
Involuntary Context Switches 24121
Block Input Operations 0
Block Output Operations 0
ERROR: User asked for termination
NOTE: The SAS System stopped processing this step because of errors.
NOTE: SAS set option OBS=0 and will continue to check statements. This may cause NOTE: No observations in data set.
NOTE: There were 33027094 observations read from the data set FMTS.LFDA.
ERROR: Errors printed on page 4.
NOTE: SAS Institute Inc., SAS Campus Drive, Cary, NC USA 27513-2414
NOTE: The SAS System used:
real time 2:28:39.02
user cpu time 2:05:06.77
system cpu time 13:47.13
Memory 6092836k
OS Memory 6956756k
Timestamp 1/22/2009 12:43:13 AM
Page Faults 182
Page Reclaims 0
Page Swaps 0
Voluntary Context Switches 1238313
Involuntary Context Switches 438408
Block Input Operations 7
Block Output Operations 0
ERROR: SORT EXECUTION FAILURE. — SAS SUPPORT COMMUNITIES
Web 2019-01-29 NOTE: Invalid argument 2 to function INTNX. Missing values may be generated. NOTE: Invalid argument 2 to function INTNX. Missing values may be …
From communities.sas.com
Estimated Reading Time 4 mins
SAS WORKSPACE SERVER TERMINATES UNEXPECTANTLY — STACK OVERFLOW
Web 2013-02-01 1. If the process is running on another DB, via ODBC pass through or SAS/Access, the trace option may be helpful for debugging (will show you in the log …
From stackoverflow.com
SAS HELP CENTER: TERMINATION PATTERNS
Web 2022-01-18 SAS® Workflow Manager: User’s Guide documentation.sas.com … Termination patterns are workflow patterns in which the workflow completes normally. …
From documentation.sas.com
68544 — A SEGMENTATION VIOLATION OCCURS AND SAS® CRASHES
Web Problem Note 68544: A segmentation violation occurs and SAS® crashes when you use a PROC SQL CONNECT statement with AUTHDOMAIN= as the final option in the code A …
From support.sas.com
TERMINATION LICENSE DEKRA CERTIFICATION SAS — FSSC
Web 2022-04-04 Termination license DEKRA CERTIFICATION SAS . … «Safer food, better health» World Food Safety Day 2022 . … for the legitimate purpose of enabling the use of …
From fssc.com
SAS HELP CENTER: TERMINATION STATEMENTS
Web SAS/IML 15.1 User’s Guide documentation.sas.com SAS® Help Center … Customer Support SAS Documentation. SAS® 9.4 and SAS® Viya® 3.4 Programming …
From documentation.sas.com
SAS ONLINE SUPERMARKET — SAS.AM — SAS.AM
Web Frequently asked questions and answers; Delivery and payment … 8 777. SAS Food Court +374 (11) 53 88 88 +374 (12) 53 88 88. 043 20 20 20. Complaints and suggestions. …
From sas.am
43664 — THE TERMSTMT= OPTION TERMINATES A JOB AFTER 30 SECONDS
Web If the client in a SAS/CONNECT® session in SAS® 9.2, the TERMSTMT option terminates a job after 30 seconds Support. Submit a Problem; Update a Problem; Check Problem …
From support.sas.com
‘RE: USER ASKED FOR TERMINATION’ — MARC
Web > Yeah, the log file exploded a tad > bit. Problem here, though, is that it’s specifically this one > user. Others can run this program on the same data with no > difficulty. I’m …
From marc.info
‘RE: USER ASKED FOR TERMINATION’ — MARC
Web [prev in list] [next in list] [prev in thread] [next in thread] List: sas-l Subject: Re: User asked for termination From: «Fehd, Ronald J. (PHPPO)» <rjf2 CDC ! GOV> Date: 2004-03-02 …
From marc.info
‘RE: USER ASKED FOR TERMINATION’ — MARC
Web 2004-03-04 [prev in list] [next in list] [prev in thread] [next in thread] List: sas-l Subject: Re: User asked for termination From: Howard Schreier <Howard_Schreier ITA ! DOC ! …
From marc.info
‘USER ASKED FOR TERMINATION’ THREAD — MARC
Web sas-l 2022-10-01 — 2022-11-01 (98 messages) 1. 2004-03-04 Re: User asked for termination sas-l Howard Schreier 2. 2004-03-02 Re: User asked for termination sas …
From marc.info
‘USER ASKED FOR TERMINATION’ — MARC
Web MPRINT(TRANSLT): run; ERROR: User asked for termination^MERROR: User asked for termination^MERROR: Use r asked for termination NOTE: The SAS System stopped …
From marc.info
SAS® 9.4 COMPANION FOR WINDOWS, FIFTH EDITION — SAS …
Web in the Microsoft Management Console Services snap-in, select the service that you want to terminate and select Stop . To terminate a SAS process, use one of the following …
From support.sas.com
USER ASKED FOR TERMINATION — COMP.SOFT-SYS.SAS.NARKIVE.COM
Web ERROR: User asked for termination^MERROR: User asked for. termination^MERROR: Use. r asked for termination. NOTE: The SAS System stopped processing this step because of errors. NOTE: DATA statement used: real time 5:04.31. cpu time 5:01.14. …
From comp.soft-sys.sas.narkive.com
У меня есть процедура, которая, когда я выполняю в dbeaver, отлично работает без проблем, однако, когда я вызываю ее из внешней программы, я получаю сообщение об ошибке ниже. Я не хочу копировать / вставлять здесь полную процедуру, потому что она довольно большая и работает в инструменте db. Я просто копирую / вставляю верх и низ. Что могло быть причиной этого?
Процедура:
CREATE OR REPLACE PROCEDURE MyProcedure(lot of args..)
LANGUAGE plpgsql
AS $procedure$
DECLARE
.....
.....
COMMIT;
END;
$procedure$
;
Ошибка:
ERROR: invalid transaction termination
Where: PL/pgSQL function MyFunction line 185 at COMMIT Call getNextException to see other errors in the batch. Line 185 at COMMIT Call getNextException to see other errors in the batch.
1 ответ
Лучший ответ
В документации говорится:
Управление транзакциями возможно только в вызовах
CALL
илиDO
с верхнего уровня или вложенных вызовахCALL
илиDO
без какой-либо другой промежуточной команды. Например, если стек вызововCALL proc1()
→CALL proc2()
→CALL proc3()
, то вторая и третья процедуры могут выполнять действия по управлению транзакциями. Но если стек вызововCALL proc1()
→SELECT func2()
→CALL proc3()
, то последняя процедура не может управлять транзакцией из-заSELECT
между ними.
Есть и другие, недокументированные ограничения:
-
Вы не можете явно начать транзакцию с помощью
BEGIN
и зафиксировать ее внутри транзакции. Таким образом, следующее не удастся:START TRANSACTION; CALL procedure_with_commit();
Это может быть улучшено в будущих выпусках.
-
Все процедуры в стеке вызовов должны быть написаны на PL / pgSQL:
CREATE PROCEDURE b() LANGUAGE plpgsql AS 'BEGIN PERFORM 42; COMMIT; END;'; CREATE PROCEDURE a() LANGUAGE sql AS 'CALL b()'; CALL a(); ERROR: invalid transaction termination CONTEXT: PL/pgSQL function b() line 1 at COMMIT SQL function "a" statement 1
Как бы то ни было, контроль транзакций внутри процедур PostgreSQL несколько ограничен.
Если вы нарушите какое-либо из этих правил, вы получите сообщение об ошибке, описанное в вашем вопросе. Вероятно, вам придется обрабатывать транзакции в приложении, а не в процедуре — возможно, разделение процедуры на более мелкие части делает это возможным.
16
Laurenz Albe
19 Фев 2021 в 06:28
описание проблемы
Среда K8s (v1.13.5) + Istio (v1.1.7) была установлена в тестовой среде, и в один день в кластере Istio было выпущено более 30 сервисов (интерфейсные, внутренние, шлюз), и связанные с Istio были настроены правила маршрутизации. Позже я с полной уверенностью проверил маршрутизацию между службами, только щелкнув внешнюю страницу, чтобы вызвать шлюз, а затем шлюз вызвал другие внутренние службы (веб-интерфейс -> шлюз -> серверная часть). end service), но в фактическом тесте В процессе, шлюз всегда будет сообщать код ответа http внутренней службы 503, а сам шлюз также время от времени будет сообщать код ошибки 503, и кажется, что нет никакой закономерности в сроках сообщения об ошибке, что меня смущает … ..
Связанная проблема
Первое, что приходит в голову, это найти связанные проблемы в github-> istio. Для конкретных проблем, пожалуйста, перейдите по следующей ссылке:
503 «upstream connect error or disconnect/reset before headers» in 1.1 with low traffic
Sporadic 503 errors
Almost every app gets UC errors, 0.012% of all requests in 24h period
В выпуске много дискуссий по поводу 503. Istio представила концепцию sidecar (посланник). Простое понимание sidecar — это прокси локальной сети, висящий перед каждым конкретным приложением в сервисной сетке (соответствует Pod в K8s. . Существует несколько контейнеров: istio-proxy, app, оба могут обмениваться данными через localhost). В Istio дополнительный компонент реализован за счет расширения Envoy. Дополнительный элемент обеспечивает удобство (маршрутизация, предохранитель, конфигурация пула соединений и т. Д.), Но В то же время это также усложняет вызовы между службами. Исходный простой вызов Application1-> Application2 становится вызовом Application1-> Envoy1-> Envoy2-> Application2 в Istio, как показано ниже:
По сути, любые проблемы в процессе связи между Envoy2 и Application2 будут упакованы в 503, отправлены обратно в Enovy1 и, наконец, возвращены в Application1.
Путем повторного изучения Issue было обнаружено, что проблема 503, обычно упоминаемая в Issue, связана с тем, что пул соединений в Envoy2 кэширует недопустимые соединения в Applicaiton2. Envoy2 вызывает Application2 через недопустимое соединение, вызывая сброс соединения, а затем инкапсулирует Envoy2 как 503 и вернулся к нижестоящему вызывающему,
Типичные характеристики этого 503 можно просмотреть в журнале istio-proxy соответствующего приложения.Команда для настройки уровня журнала istio-proxy выглядит следующим образом:
curl -X POST localhost:15000/logging?level=trace
Типичный журнал 503 выглядит следующим образом:
[2019-06-28 13:02:36.790][37][debug][pool] [external/envoy/source/common/http/http1/conn_pool.cc:97] [C26] using existing connection
[2019-06-28 13:02:36.790][37][debug][router] [external/envoy/source/common/router/router.cc:1210] [C21][S3699665653477458718] pool ready
[2019-06-28 13:02:36.790][37][debug][connection] [external/envoy/source/common/network/connection_impl.cc:518] [C26] remote close
[2019-06-28 13:02:36.790][37][debug][connection] [external/envoy/source/common/network/connection_impl.cc:188] [C26] closing socket: 0
[2019-06-28 13:02:36.791][37][debug][client] [external/envoy/source/common/http/codec_client.cc:82] [C26] disconnect. resetting 1 pending requests
[2019-06-28 13:02:36.791][37][debug][client] [external/envoy/source/common/http/codec_client.cc:105] [C26] request reset
[2019-06-28 13:02:36.791][37][debug][router] [external/envoy/source/common/router/router.cc:671] [C21][S3699665653477458718] upstream reset: reset reason connection termination
[2019-06-28 13:02:36.791][37][debug][http] [external/envoy/source/common/http/conn_manager_impl.cc:1137] [C21][S3699665653477458718] Sending local reply with details upstream_reset_before_response_started{connection termination}
[2019-06-28 13:02:36.791][37][debug][filter] [src/envoy/http/mixer/filter.cc:141] Called Mixer::Filter : encodeHeaders 2
[2019-06-28 13:02:36.791][37][debug][http] [external/envoy/source/common/http/conn_manager_impl.cc:1329] [C21][S3699665653477458718] encoding headers via codec (end_stream=false):
‘:status’, ‘503’
‘content-length’, ’95’
‘content-type’, ‘text/plain’
‘date’, ‘Fri, 28 Jun 2019 13:02:36 GMT’
‘server’, ‘istio-envoy’
В приведенном выше журналеupstream reset: reset reason connection terminationЭто означает, что соединение в пуле соединений посланника было прервано;
Базовое решение
Для решения вышеуказанных проблем можно использовать следующие 4 метода оптимизации:
(1) Измените HTTPRetry (попытки, perTryTimeout, retryOn) в VirtualService и установите стратегию повтора ошибок.
(Примечание: вам необходимо установить тайм-аут в Envoy одновременно (ссылка на Envoy), то есть общее время повтора должно быть меньше тайм-аута,
HttpRoute.timeout необходимо установить одновременно в Istio);
(2) Измените HTTPSettings.idleTimeout в DestinationRule, чтобы установить время простоя кэширования соединений в пуле соединений envoy;
(3) Измените HTTPSettings.maxRequestsPerConnection в DestinationRule на 1 (закройте Keeplive, соединение не будет повторно использоваться и производительность снизится);
(4) Измените tomcat connectionTimeout (конфигурация Springboot server.connectionTimeout), чтобы увеличить время ожидания соединения для веб-контейнера;
В то же время вы можете обратиться к следующей статье, чтобы узнать о методах устранения неполадок 503 в Istio:
[Английская версия] Istio: 503’s с UC’s и TCP Fun Times
[Китайская версия] Istio: 503, UC и TCP
В целом расследование делится на 4 основных метода:
(1) Просмотр записей отслеживания JagerUI (установка теговerror=true);
(2) Просмотр метрик (Istio, Envoy);
(3) Просмотрите журнал отладки istio-proxy;
(4) захват сетевых пакетов;
Я использовал только методы (1) (3) (4) в самом процессе устранения неполадок.
JaggerUI
При использовании метода (1) Jagger для устранения проблем (вы можете временно установить PILOT_TRACE_SAMPLING на 100, то есть отслеживать все), вам необходимо обратить внимание на следующие моменты:
(1) Установите ошибку тегов = true в условиях запроса, чтобы быстро найти информацию для отслеживания ошибок;
(2) Обратите внимание на информацию response_flags в деталях отслеживания. Это поле указывает тип отказа ответа и может быстро определить причину отказа;
См. Описание response_flagsДокументация посланника:
журнал istio-proxy
В методе использования (3) установите уровень журнала istio-proxy на отладку (трассировку) и сосредоточьтесь на следующем содержимом журнала:
(1) код ответа HTTP, например «503»;
(2) Найдите соответствующий журнал над кодом ответа http (например, 503):upstream reset: reset reason connection termination, Причина неудачного позиционирования;
(3) Продолжайте искать способ подключения выше:using existing connection | creating a new connection(Существующее соединение ИЛИ новое соединение);
обычноУже подключенПроблема в том, что соединение, кэшированное в пуле соединений enovy, вначале недействительно, иНовое соединениеЕсли есть проблема, вам нужно найти другие причины. Ниже будет показано, с чем я столкнулся на практике.Новое соединениеОбъясните проблему;
Сетевой захват
Вы можете использовать плагин kubectl ksniff, но мне не удалось выполнить фактический процесс использования (проблема в том, что wirehark-gtk не запустился), поэтому была использована исходная команда tcpdump. Основные шаги следующие:
(1) Войдите в операционную среду контейнера приложения: kubectl exec -it xxx -c app -n tsp / bin / bash;
(2) Выполните команду tcpdump и выведите результат в файл: sudo tcpdump -ni lo port 8080 -vv -w my-packets.pcap;
-i определяет сетевую карту как lo (loopback) и наблюдает только за трафиком между локальным Envoy и приложением (Envoy и приложение находятся на одном хосте и обмениваются данными через localhost)
-n display ip (преобразовать домен в IP)
порт указывает, что отслеживается только порт 8080 (порт связи, доступный для приложения)
-vv показать подробную информацию
-w Указанный результат выводится в файл my-packet.pcap
(3) Войдите в рабочий узел модуля и скопируйте файл результатов my-packets.pcap на шаге (2) на узел узла через docker cp;
(4) Получите my-packets.pcap на хосте узла и просмотрите его через wirehark;
Примечание. Контейнер istio-proxy является файловой системой только для чтения и не может записывать файлы, поэтому выберите приложение для tcpdump в конкретном контейнере приложения;
Источник моей проблемы
После вышеупомянутого броска я изменил свои VirtualService и DestionationRule, но проблема 503. Я также рассмотрел, было ли это связано с ограничениями подключения хоста и настройками сети (ulimit, tcp_tw_recycle и т. Д.). Версия Istio была обновлена (с 1.1.7 до 1.1.11, версия после 1.1.7 содержит исправление для ошибки 503), но, как бы сложно это ни было, версия 503 не была удалена;
И что странно, на гитхабе все говорилиusing existing connectionПроблема возникает, но яcreating a new connectionПроблема, мой полный журнал выглядит следующим образом:
[2019-07-16 08:59:23.853][31][debug][pool] [external/envoy/source/common/http/http1/conn_pool.cc:92] creating a new connection
[2019-07-16 08:59:23.853][31][debug][client] [external/envoy/source/common/http/codec_client.cc:26] [C297] connecting
[2019-07-16 08:59:23.853][31][debug][connection] [external/envoy/source/common/network/connection_impl.cc:644] [C297] connecting to 127.0.0.1:8080
[2019-07-16 08:59:23.853][31][debug][connection] [external/envoy/source/common/network/connection_impl.cc:653] [C297] connection in progress
[2019-07-16 08:59:23.853][31][debug][pool] [external/envoy/source/common/http/conn_pool_base.cc:20] queueing request due to no available connections
[2019-07-16 08:59:23.853][31][debug][filter] [src/envoy/http/mixer/filter.cc:94] Called Mixer::Filter : decodeData (84, false)
[2019-07-16 08:59:23.853][31][debug][http] [external/envoy/source/common/http/conn_manager_impl.cc:1040] [C93][S18065063288515590867] request end stream
[2019-07-16 08:59:23.853][31][debug][filter] [src/envoy/http/mixer/filter.cc:94] Called Mixer::Filter : decodeData (0, true)
[2019-07-16 08:59:23.853][31][debug][connection] [external/envoy/source/common/network/connection_impl.cc:526] [C297] delayed connection error: 111
[2019-07-16 08:59:23.853][31][debug][connection] [external/envoy/source/common/network/connection_impl.cc:183] [C297] closing socket: 0
[2019-07-16 08:59:23.853][31][debug][client] [external/envoy/source/common/http/codec_client.cc:82] [C297] disconnect. resetting 0 pending requests
[2019-07-16 08:59:23.853][31][debug][pool] [external/envoy/source/common/http/http1/conn_pool.cc:133] [C297] client disconnected, failure reason:
[2019-07-16 08:59:23.853][31][debug][pool] [external/envoy/source/common/http/http1/conn_pool.cc:173] [C297] purge pending, failure reason:
[2019-07-16 08:59:23.853][31][debug][router] [external/envoy/source/common/router/router.cc:644] [C93][S18065063288515590867] upstream reset: reset reason connection failure
[2019-07-16 08:59:23.853][31][debug][filter] [src/envoy/http/mixer/filter.cc:133] Called Mixer::Filter : encodeHeaders 2
[2019-07-16 08:59:23.853][31][trace][http] [external/envoy/source/common/http/conn_manager_impl.cc:1200] [C93][S18065063288515590867] encode headers called: filter=0x5c79f40 status=0
[2019-07-16 08:59:23.853][31][debug][http] [external/envoy/source/common/http/conn_manager_impl.cc:1305] [C93][S18065063288515590867] encoding headers via codec (end_stream=false):
‘:status’, ‘503’
‘content-length’, ’91’
‘content-type’, ‘text/plain’
‘date’, ‘Tue, 16 Jul 2019 08:59:23 GMT’
‘server’, ‘istio-envoy’
Через журнал я обнаружил, что моя проблема возникла, когда Enovy подключился к локальному приложению 127.0.0.1:8080 порту.connection failure, И response_flags в JaggerUI — это UF (сбой соединения с восходящей службой), и этот сбой является периодическим, иногда успешным, а иногда — неудачным;
В пятницу утром, когда погода была ясной (после почти недели метания> _ <|||), я заметил следующее явление:
Проверьте мой контейнер приложения через приложение docker ps | grep, почему все контейнеры приложения были активны 6 или 7 минут;
Похоже, проблема обнаружена. Так много контейнеров обычно работают в течение 6 или 7 минут, что означает, что контейнер приложения постоянно перезапускается. Причина перезапуска контейнера приложения заключается в том, что проверка работоспособности K8s не удалась. Сразу поехал проверять работоспособность K8s. Проверяем конфигурацию:
Порт, предоставленный контейнером, содержитPort = 8080, а tcpSocket.port, установленный в livenessProbe, равен 80. Эти два значения не совсем правильные, и из-за конфигурации проверки работоспособности:
Отложенное обнаружение 300 с (5 минут) + первая ошибка обнаружения + неудачная повторная попытка (3-1) раза * Интервал повторной попытки 60 с = 5 минут + 2 * 1 минута = более 7 минут (примерно от 7 до 8 минут)
В результате приложение будет обнаружено как неисправное через 7-8 минут, что приведет к тому, что контейнер приложения будет работать не более 8 минут, и он будет постоянно перезапускаться, а процесс перезапуска неизбежно приведет к тому, что посланник будет подключиться к приложению.connection failure, Существует также периодически возникающая проблема 503. В то же время, наблюдение, что интерфейсный интерфейс (синхронизированный пульс) запрашивает у серверной службы отчет за период времени 503, также согласуется со временем перезапуска контейнера приложения, кроме того подтверждающие причину сбоя подключения:
Ошибка конфигурации проверки работоспособностиВызвать непрерывный перезапуск контейнера приложения и вызвать его во время процесса перезапускаconnection failure;
После изменения livenessProbe во всех развертываниях предыдущая проблема 503 исчезла …
Я могу снова пойти повеселиться в эти выходные …
подводить итоги
Из-за моей неосторожности была вызвана ошибка конфигурации проверки работоспособности, которая, в свою очередь, вызвала проблемы с Istio 503. У меня до сих пор нет полного понимания соответствующей конфигурации, и мне нужно углубить исследование;
Однако, устраняя проблему 503, я лучше понимаю метод устранения неполадок Isito, и я могу быстро найти проблему в будущем;
Не сдавайся легкомысленно …