Proxmox error 500

Good morning. I have a proxmox in version 7.0-11 that is presenting the error, just when I click on its shell, on any pve and on the server itself. Error failed (Error 500: failed to get address info for: pve: Name or service not known), has anyone ever experienced this error?

  • #1

Good morning.

I have a proxmox in version 7.0-11 that is presenting the error, just when I click on its shell, on any pve and on the server itself.
Error failed (Error 500: failed to get address info for: pve: Name or service not known), has anyone ever experienced this error?

Moayad

Moayad

Proxmox Staff Member

Staff member


  • #2

Hi,

my first guess is the hostname is not correct, could you check on hostname, hostnamectl status, and /etc/hosts, otherwise, is anything in interesting in Syslog?

  • #3

The hosts did not agree with hostnamectl, I made the fix, but even so presents error, I will rebootit the proxmox and test

  • #4

Solved, just adjusting the hosts, thank you very much for the guidance

Moayad

Moayad

Proxmox Staff Member

Staff member


  • #5

Glad that you solved your issue yourself :)

I will go ahead and make your thread as [SOLVED] to help other people who have the same issue.

Maybe related to #24139
Different HTTP error code 500

ISSUE TYPE
  • Bug Report
COMPONENT NAME

contrib/inventory/proxmox.py

ANSIBLE VERSION

ansible 2.3.0.0
config file = /etc/ansible/ansible.cfg
configured module search path = [u’/usr/lib/python2.7/site-packages/ansible/modules/extras’, u’/usr/lib/python2.7/site-packages/ansible/modules/core’]
python version = 2.7.5 (default, Nov 6 2016, 00:28:07) [GCC 4.8.5 20150623 (Red Hat 4.8.5-11)]

CONFIGURATION

nothing special

OS / ENVIRONMENT

CentOS 7.3

SUMMARY
STEPS TO REPRODUCE
---

- hosts: 127.0.0.1
  connection: local
  vars:
    - proxmox_user: ansible@pve
    - proxmox_password: badpasswd
    - proxmox_host: 1.2.3.4
  tasks:
  - proxmox:
     state: present
#     vmid: 103
#     validate_certs: no
     node: 'pve'
     api_user: "{{ proxmox_user }}"
     api_password: "{{ proxmox_password }}"
     api_host: "{{ proxmox_host }}"
#     disk: 8
     storage: 'pve-storage'
#     memory: 512
#     swap: 512
     password: evenbetterpasswd
     hostname: lxctest
     ostemplate: 'pve-templates:vztmpl/centos-7-default_20160205_amd64.tar.xz'
#     netif: '{"net0":"name=eth0,ip=dhcp,ip6=dhcp,bridge=vmbr0,tag=2"}'
EXPECTED RESULTS

LXC container created

ACTUAL RESULTS
5.6.7.8 - - [28/May/2017:20:15:57 +0200] "POST /api2/json/access/ticket HTTP/1.1" 200 663
5.6.7.8 - ansible@pve [28/May/2017:20:15:57 +0200] "GET /api2/json/version HTTP/1.1" 200 108
5.6.7.8 - ansible@pve [28/May/2017:20:15:57 +0200] "GET /api2/json/cluster/nextid HTTP/1.1" 200 14
5.6.7.8 - ansible@pve [28/May/2017:20:15:57 +0200] "GET /api2/json/cluster/resources?type=vm HTTP/1.1" 200 11
5.6.7.8 - ansible@pve [28/May/2017:20:15:57 +0200] "GET /api2/json/cluster/resources?type=vm HTTP/1.1" 200 11
5.6.7.8 - ansible@pve [28/May/2017:20:15:57 +0200] "GET /api2/json/nodes HTTP/1.1" 200 196
5.6.7.8 - ansible@pve [28/May/2017:20:15:57 +0200] "GET /api2/json/nodes/pve/storage/pve-templates/content HTTP/1.1" 200 492
5.6.7.8 - ansible@pve [28/May/2017:20:15:57 +0200] "POST /api2/json/nodes/pve/lxc HTTP/1.1" 500 13
fatal: [127.0.0.1]: FAILED! => {
    "changed": false,
    "failed": true,
    "invocation": {
        "module_args": {
            "api_host": "192.168.1.10",
            "api_password": "VALUE_SPECIFIED_IN_NO_LOG_PARAMETER",
            "api_user": "ansible@pve",
            "cpus": 1,
            "cpuunits": 1000,
            "disk": "3",
            "force": false,
            "hostname": "lxctest",
            "ip_address": null,
            "memory": 512,
            "mounts": null,
            "nameserver": null,
            "netif": null,
            "node": "pve",
            "onboot": false,
            "ostemplate": "pve-templates:vztmpl/centos-7-default_20160205_amd64.tar.xz",
            "password": "VALUE_SPECIFIED_IN_NO_LOG_PARAMETER",
            "pool": null,
            "pubkey": null,
            "searchdomain": null,
            "state": "present",
            "storage": "pve-storage",
            "swap": 0,
            "timeout": 30,
            "unprivileged": false,
            "validate_certs": false,
            "vmid": null
        }
    },
    "msg": "creation of lxc VM 103 failed with exception: 500 Internal Server Error"

I have 2 nodes now running proxmox, on one I created the cluster and try to join the other one but get the errorlog

Etablishing API connection with host '172.19.1.67'
Login succeeded.
Request addition of this node
TASK ERROR: 500 cluster not ready - no quorum?        

But the thing is now when ever i try to startup vms on the node i created the cluster with I get cluster not ready - no quorum? (500

So I’m a bit stuck now.

BTW I’m running 5.2-6 proxmox

EDIT: When I do systemctl status corosync.service

   Loaded: loaded (/lib/systemd/system/corosync.service; enabled; vendor preset: enabled)
   Active: failed (Result: exit-code) since Thu 2018-08-16 11:46:41 EDT; 26min ago
     Docs: man:corosync
           man:corosync.conf
           man:corosync_overview
  Process: 1652 ExecStart=/usr/sbin/corosync -f $COROSYNC_OPTIONS (code=exited, status=20)
 Main PID: 1652 (code=exited, status=20)
      CPU: 146ms

Aug 16 11:46:41 pve corosync[1652]: info    [WD    ] no resources configured.
Aug 16 11:46:41 pve corosync[1652]: notice  [SERV  ] Service engine loaded: corosync watchdog service [7]
Aug 16 11:46:41 pve corosync[1652]: notice  [QUORUM] Using quorum provider corosync_votequorum
Aug 16 11:46:41 pve corosync[1652]: crit    [QUORUM] Quorum provider: corosync_votequorum failed to initialize.
Aug 16 11:46:41 pve corosync[1652]: error   [SERV  ] Service engine 'corosync_quorum' failed to load for reason 'configuration error: nodelist or quorum.expected_votes must be configured!'
Aug 16 11:46:41 pve corosync[1652]: error   [MAIN  ] Corosync Cluster Engine exiting with status 20 at service.c:356.
Aug 16 11:46:41 pve systemd[1]: corosync.service: Main process exited, code=exited, status=20/n/a
Aug 16 11:46:41 pve systemd[1]: Failed to start Corosync Cluster Engine.
Aug 16 11:46:41 pve systemd[1]: corosync.service: Unit entered failed state.
Aug 16 11:46:41 pve systemd[1]: corosync.service: Failed with result 'exit-code'.

EDIT SOLVED!!!

Seems the issue was I put the wrong ip for the ring ip.

Модератор: SLEDopit

Diana92

Сообщения: 6

storage is not online(500)

Всем привет
В общем пытаюсь делать резервное хранилище виртуального веб сервера Proxmox VE через NFS.
Установила клиентский нфс сервер, WinNFSd-2.0. Запустила. в линухе примонтировала, все хорошо в ssh видит зарашаренную папку и все что внтутри нее.
Но когда через Proxmox гуи добавляю выходит ошибка storage is not online(500)
Почему? Что за ошибка? Может кто нибудь помочь?

Diana92

Сообщения: 6

Re: storage is not online(500)

Сообщение

Diana92 » 30.01.2014 13:34

Видела, там ведь так и вопрос не решили, просто взяли и удалили и сделали заново и вышло. У меня так не получилось. И сервер меняла и заново монтировала, никакой пользы все так же.
В общем так написали :)
The best solution I found was to stop using ProxMox.©

Аватара пользователя

Bizdelnick

Модератор
Сообщения: 19826
Статус: nulla salus bello
ОС: Debian GNU/Linux

Re: storage is not online(500)

Сообщение

Bizdelnick » 30.01.2014 13:45

Вообще-то там указана и причина такого поведения:

Hi proxmox check if the nfs storage is online with command

«/usr/bin/rpcinfo -p ipofnfsserver»

with a timeout of 2sec.

За какое время отрабатывает у Вас эта команда?

Пишите правильно:

в консоли
вку́пе (с чем-либо)
в общем
вообще
в течение (часа)
новичок
нюанс
по умолчанию
приемлемо
проблема
пробовать
трафик

Diana92

Сообщения: 6

Re: storage is not online(500)

Сообщение

Diana92 » 30.01.2014 13:58

Bizdelnick писал(а): ↑

30.01.2014 13:45

Вообще-то там указана и причина такого поведения:

Hi proxmox check if the nfs storage is online with command

«/usr/bin/rpcinfo -p ipofnfsserver»

with a timeout of 2sec.

За какое время отрабатывает у Вас эта команда?

Ну он мне вывел вот что
прог-ма верс прото порт
100000 4 tcp 111 portmapper
100000 3 tcp 111 portmapper
100000 2 tcp 111 portmapper
100000 4 udp 111 portmapper
100000 3 udp 111 portmapper
100000 2 udp 111 portmapper
100024 1 udp 46247 status
100024 1 tcp 36505 status
100021 1 udp 46252 nlockmgr
100021 3 udp 46252 nlockmgr
100021 4 udp 46252 nlockmgr
100021 1 tcp 36648 nlockmgr
100021 3 tcp 36648 nlockmgr
100021 4 tcp 36648 nlockmgr
А что значит за какое время?

Аватара пользователя

SLEDopit

Модератор
Сообщения: 4814
Статус: фанат консоли (=
ОС: GNU/Debian, RHEL

Re: storage is not online(500)

Сообщение

SLEDopit » 30.01.2014 14:15

Diana92 писал(а): ↑

30.01.2014 13:58

А что значит за какое время?

Это значит сколько времени она работает? 1 секунду, 2 или 122?
Чтобы не считать с секундомером в руке можно запустить так:

оно в конце выведет всю необходимую информацию.

Diana92 писал(а): ↑

30.01.2014 14:08

В общем таймаут в конце файла поменяла на 1, рестартнула, не помогло

Так его, вероятнее всего, увеличить нужно, а не уменьшить.

UNIX is basically a simple operating system, but you have to be a genius to understand the simplicity. © Dennis Ritchie
The more you believe you don’t do mistakes, the more bugs are in your code.

Diana92

Сообщения: 6

Re: storage is not online(500)

Сообщение

Diana92 » 30.01.2014 14:24

SLEDopit писал(а): ↑

30.01.2014 14:15

Diana92 писал(а): ↑

30.01.2014 13:58

А что значит за какое время?

Это значит сколько времени она работает? 1 секунду, 2 или 122?
Чтобы не считать с секундомером в руке можно запустить так:

оно в конце выведет всю необходимую информацию.

Diana92 писал(а): ↑

30.01.2014 14:08

В общем таймаут в конце файла поменяла на 1, рестартнула, не помогло

Так его, вероятнее всего, увеличить нужно, а не уменьшить.

Упс значит не так поняла
В общем ничего не изменилось
вот по времени
real 0m0.003s
user 0m0.001s
sys 0m0.002s

А на команду showmount —exports 192.168.168.28
отвечает
rpc mount export: RPC: Procedure unavailable

Понравилась статья? Поделить с друзьями:
  • Proxmox acpi error
  • Proximity sensor test error
  • Provisional headers are shown ошибка
  • Province updater ошибка
  • Provider tcp provider error 35 an internal exception was caught