Hive error in parsing

Hello Community, The Hive script I have created keeps throwing the following error: Time taken: 2.634 seconds FAILED: ParseException line 17:2 missing EOF at 'COLUMN' near ')' 18/01/29 10:29:53 [main]: ERROR ql.Driver: FAILED: ParseException line 17:2 missing EOF at 'COLUMN' near ')' org.apache.hado...

@Carlton Patterson,

Can you try setting it to ROW FORMAT DELIMITED instead of COLUMN FORMAT DELIMITED and try running the query.

Thanks,

Aditya

Aditya,

Thanks for getting in touch,

I change script to the following:

DROP TABLE IF EXISTS HiveSampleIn; 
CREATE EXTERNAL TABLE HiveSampleIn 
(
 anonid int,
 eprofileclass int,
 fueltypes STRING,
 acorn_category int,
 acorn_group STRING,
 acorn_type int,
 nuts4 STRING,
 lacode STRING,
 nuts1 STRING,
 gspgroup STRING,
 ldz STRING,
 gas_elec STRING,
 gas_tout STRING
) ROW FORMAT DELIMITED FIELDS TERMINATED BY ',' LINES TERMINATED BY '10' STORED AS TEXTFILE LOCATION '
wasb://adfgetstarted@geogstoreacct.blob.core.windows.net/samplein/'; 
TBLPROPERTIES ("skip.header.line.count" = "1");
DROP TABLE IF EXISTS HiveSampleOut; 
CREATE EXTERNAL TABLE HiveSampleOut 
(   
    acorn_category int
) ROW FORMAT DELIMITED FIELDS TERMINATED BY ',' LINES TERMINATED BY '10' STORED AS TEXTFILE LOCATION '
wasb://adfgetstarted@geogstoreacct.blob.core.windows.net/sampleout/';
TBLPROPERTIES ("skip.header.line.count" = "1");
INSERT OVERWRITE TABLE HiveSampleOut
Select 
   acorn_category,
   count(*) as acorn_categorycount 
FROM HiveSampleIn Group by acorn_category

But I’m now getting the following errors:

Time taken: 2.684 seconds
FAILED: ParseException line 18:46 character '<EOF>' not supported here
18/01/29 11:37:24 [main]: ERROR ql.Driver: FAILED: ParseException line 18:46 character '<EOF>' not supported here
org.apache.hadoop.hive.ql.parse.ParseException: line 18:46 character '<EOF>' not supported here

Hi Aditya,

I tried your suggestion, but now I’m getting the following error:

FAILED: IllegalArgumentException java.net.URISyntaxException: Illegal character in scheme name at index 0: 
wasb://adfgetstarted@geogstoreacct.blob.core.windows.net/samplein
18/01/29 12:18:20 [main]: ERROR ql.Driver: FAILED: IllegalArgumentException java.net.URISyntaxException: Illegal character in scheme name at index 0: 
wasb://adfgetstarted@geogstoreacct.blob.core.windows.net/samplein
java.lang.IllegalArgumentException: java.net.URISyntaxException: Illegal character in scheme name at index 0: 
wasb://adfgetstarted@geogstoreacct.blob.core.windows.net/samplein

The new code looks like the following:

DROP TABLE IF EXISTS HiveSampleIn; 
CREATE EXTERNAL TABLE HiveSampleIn 
(
 anonid int,
 eprofileclass int,
 fueltypes STRING,
 acorn_category int,
 acorn_group STRING,
 acorn_type int,
 nuts4 STRING,
 lacode STRING,
 nuts1 STRING,
 gspgroup STRING,
 ldz STRING,
 gas_elec STRING,
 gas_tout STRING
) ROW FORMAT DELIMITED FIELDS TERMINATED BY ',' LINES TERMINATED BY '10' STORED AS TEXTFILE LOCATION '
wasb://adfgetstarted@geogstoreacct.blob.core.windows.net/samplein/' 
TBLPROPERTIES ("skip.header.line.count" = "1");
DROP TABLE IF EXISTS HiveSampleOut; 
CREATE EXTERNAL TABLE HiveSampleOut 
(   
    acorn_category int
) ROW FORMAT DELIMITED FIELDS TERMINATED BY ',' LINES TERMINATED BY '10' STORED AS TEXTFILE LOCATION '
wasb://adfgetstarted@geogstoreacct.blob.core.windows.net/sampleout/'
TBLPROPERTIES ("skip.header.line.count" = "1");
INSERT OVERWRITE TABLE HiveSampleOut
Select 
   acorn_category,
   count(*) as acorn_categorycount 
FROM HiveSampleIn Group by acorn_category

Hello Community,

I have updated the script as follows:

DROP TABLE IF EXISTS HiveSampleIn; 
CREATE EXTERNAL TABLE HiveSampleIn 
(
 anonid int,
 eprofileclass int,
 fueltypes STRING,
 acorn_category int,
 acorn_group STRING,
 acorn_type int,
 nuts4 STRING,
 lacode STRING,
 nuts1 STRING,
 gspgroup STRING,
 ldz STRING,
 gas_elec STRING,
 gas_tout STRING
) ROW FORMAT DELIMITED FIELDS TERMINATED BY ',' LINES TERMINATED BY '10' STORED AS TEXTFILE LOCATION 'wasb://adfgetstarted@geogstoreacct.blob.core.windows.net/samplein/' 
TBLPROPERTIES ("skip.header.line.count" = "1");
DROP TABLE IF EXISTS HiveSampleOut; 
CREATE EXTERNAL TABLE HiveSampleOut 
(   
    acorn_category int
) ROW FORMAT DELIMITED FIELDS TERMINATED BY ',' LINES TERMINATED BY '10' STORED AS TEXTFILE LOCATION 'wasb://adfgetstarted@geogstoreacct.blob.core.windows.net/sampleout/'
INSERT OVERWRITE TABLE HiveSampleOut
Select 
   acorn_category 
FROM HiveSampleIn Group by acorn_category
TBLPROPERTIES ("skip.header.line.count" = "1");

However, I’m getting the following error message:

Time taken: 0.499 seconds
FAILED: ParseException line 7:0 missing EOF at 'INSERT' near ''wasb://adfgetstarted@geogstoreacct.blob.core.windows.net/sampleout/''
18/01/29 15:34:09 [main]: ERROR ql.Driver: FAILED: ParseException line 7:0 missing EOF at 'INSERT' near ''wasb://adfgetstarted@geogstoreacct.blob.core.windows.net/sampleout/''
org.apache.hadoop.hive.ql.parse.ParseException: line 7:0 missing EOF at 'INSERT' near ''wasb://adfgetstarted@geogstoreacct.blob.core.windows.net/sampleout/''

Any help will be greatly appreciated.

Cheers

Hello Community,

While waiting for some assistance, I have created the the following HQL script, but I’m still have the problem:

DROP TABLE IF EXISTS HiveSampleIn;
CREATE EXTERNAL TABLE HiveSampleIn
(
 anonid INT,
 eprofileclass INT,
 fueltypes STRING,
 acorn_category INT,
 acorn_group STRING,
 acorn_type INT,
 nuts4 STRING,
 lacode STRING,
 nuts1 STRING,
 gspgroup STRING,
 ldz STRING,
 gas_elec STRING,
 gas_tout STRING
)
ROW FORMAT DELIMITED
 FIELDS TERMINATED BY ','
STORED AS TEXTFILE
LOCATION 'wasb://adfgetstarted@geogstoreacct.blob.core.windows.net/samplein/';
tblproperties ("skip.header.line.count"="2");
DROP TABLE IF EXISTS HiveSampleOut; 
CREATE EXTERNAL TABLE HiveSampleOut 
(   
    acorn_category int
) 
ROW FORMAT DELIMITED
 FIELDS TERMINATED BY ','
STORED AS TEXTFILE
LOCATION 'wasb://adfgetstarted@geogstoreacct.blob.core.windows.net/sampleout/';
INSERT OVERWRITE TABLE HiveSampleOut
Select 
   acorn_category
FROM HiveSampleIn Group by acorn_category;

I’m getting the following error:

Time taken: 2.663 seconds
FAILED: ParseException line 21:44 missing EOF at ',' near ')'
18/01/29 21:37:15 [main]: ERROR ql.Driver: FAILED: ParseException line 21:44 missing EOF at ',' near ')'
org.apache.hadoop.hive.ql.parse.ParseException: line 21:44 missing EOF at ',' near ')'

Any help with this will be greatly appreciated.

Cheers

Carlton

CREATE EXTERNAL TABLE HiveSampleIn

LOCATION ‘wasb://adfgetstarted@geogstoreacct.blob.core.windows.net/samplein/’; — Getting terminated at here

tblproperties («skip.header.line.count»=»2»); — This might be throwing ParseException

Hi Naresh,

Thanks for getting in touch.

Can you think of any reason why tblproperties («skip.header.line.count»=»2»); is throwing the error? And any suggestions on how to fix it?

Much appreciated.

Carlton

pls try to use below command for creating HiveSampleIn Table

CREATE EXTERNAL TABLE HiveSampleIn
(
 anonid INT,
 eprofileclass INT,
 fueltypes STRING,
 acorn_category INT,
 acorn_group STRING,
 acorn_type INT,
 nuts4 STRING,
 lacode STRING,
 nuts1 STRING,
 gspgroup STRING,
 ldz STRING,
 gas_elec STRING,
 gas_tout STRING
)
ROW FORMAT DELIMITED
 FIELDS TERMINATED BY ','
STORED AS TEXTFILE
LOCATION 'wasb://adfgetstarted@geogstoreacct.blob.core.windows.net/samplein/'
tblproperties ("skip.header.line.count"="2");

This could be because you are parsing actual data in the place of header,supposing your first row has header and second row onwards has data.

Hence it can’t parse data(int, string) as header(string).

So try changing it to («skip.header.line.count»=»1»);

Hope this helps.

Why does my Amazon Athena query fail with the error «HIVE_BAD_DATA: Error parsing field value for field X: For input string: «12312845691»»?

Last updated: 2021-11-22

When I query data in Amazon Athena, I get an error similar to one of the following:

«HIVE_BAD_DATA: Error parsing field value for field X: For input string: «12312845691»

«HIVE_BAD_DATA: Error parsing column ‘0’: target scale must be larger than source scale»

Short description

Resolution

It’s a best practice to use only one data type in a column. Otherwise, the query might fail. To resolve errors, be sure that each column contains values of the same data type, and that the values are in the allowed ranges.

If you still get errors, change the column’s data type to a compatible data type that has a higher range. If you can’t solve the problem by changing the data type,then try the solutions in the following examples.

Example 1

  • Source format: JSON
  • Issue: In the last record, the «id» key value is «0.54,» which is the DECIMAL data type. However, for the other records, the «id» key value is set to INT.

Source data:

{ "id" : 50, "name":"John" }
{ "id" : 51, "name":"Jane" }
{ "id" : 53, "name":"Jill" }
{ "id" : 0.54, "name":"Jill" }

Data Definition Language (DDL) statement:

CREATE EXTERNAL TABLE jsontest_error_hive_bad_data (
    id INT,
    name STRING
)
ROW FORMAT SERDE 'org.openx.data.jsonserde.JsonSerDe'
WITH SERDEPROPERTIES ( 'ignore.malformed.json' = 'true')
LOCATION 's3://awsexamplebucket/jsontest_error_hive_bad_data/';

Data Manipulation Language (DML) statement:

SELECT * 
FROM jsontest_error_hive_bad_data

Error:

Your query has the following error(s):
HIVE_BAD_DATA: Error parsing field value '0.54' for field 0: For input string: "0.54"
This query ran against the "default" database, unless qualified by the query. Please post the error message on our forum or contact customer support with Query Id: bd50793b-94fc-42a7-b131-b7c81da273b2.

To resolve this issue, redefine the «id» column as STRING. The STRING data type can correctly represent all values in this dataset. Example:

CREATE EXTERNAL TABLE jsontest_error_hive_bad_data_correct_id_data_type (
    id STRING,
    name STRING
)
ROW FORMAT SERDE 'org.openx.data.jsonserde.JsonSerDe'
WITH SERDEPROPERTIES ( 'ignore.malformed.json' = 'true')
LOCATION 's3://awsexamplebucket/jsontest_error_hive_bad_data/';

DML statement:

SELECT * 
FROM jsontest_error_hive_bad_data_correct_id_data_type

You can also CAST to the desired data type. For example, you can cast a string as an integer. However, depending on the data types that you are casting from and to, this might return null or inaccurate results. Values that can’t be cast are discarded. For example, casting the string value «0.54» to INT returns null results:

SELECT TRY_CAST(id AS INTEGER) 
FROM jsontest_error_hive_bad_data_correct_id_data_type

Example output:

Results
     _col0
1    50
2    51
3    53
4

The output shows that the value «0.54» was discarded. You can’t cast that value directly from a string to an integer. To resolve this issue, use COALESCE to CAST the mixed type values in the same column as the output. Then, allow the aggregate function to run on the column. Example:

SELECT COALESCE(TRY_CAST(id AS INTEGER), TRY_CAST(id AS DECIMAL(10,2))) 
FROM jsontest_error_hive_bad_data_correct_id_data_type

Output:

Results
     _col0
1    50.00
2    51.00
3    53.00
4    0.54

Run aggregate functions:

SELECT SUM(COALESCE(TRY_CAST(id AS INTEGER), TRY_CAST(id AS DECIMAL(10,2)))) 
FROM jsontest_error_hive_bad_data_correct_id_data_type

Output:

Example 2

  • Source format: JSON
  • Issue: The «id» column is defined as INT. Athena couldn’t parse «49612833315» because the range for INT values in Presto is -2147483648 to 2147483647.

Source data:

{ "id" : 50, "name":"John" }
{ "id" : 51, "name":"Jane" }
{ "id" : 53, "name":"Jill" }
{ "id" : 49612833315, "name":"Jill" }

DDL statement:

CREATE EXTERNAL TABLE jsontest_error_hive_bad_data_sample_2 (
    id INT,
    name STRING
)
ROW FORMAT SERDE 'org.openx.data.jsonserde.JsonSerDe'
WITH SERDEPROPERTIES ( 'ignore.malformed.json' = 'true')
LOCATION 's3://awsexamplebucket/jsontest_error_hive_bad_data_2/';

DML statement:

SELECT * 
FROM jsontest_error_hive_bad_data_sample_2

Error:

Your query has the following error(s):
HIVE_BAD_DATA: Error parsing field value '49612833315' for field 0: For input string: "49612833315"
This query ran against the "default" database, unless qualified by the query. Please post the error message on our forum or contact customer support with Query Id: 05b55fb3-481a-4012-8c0d-c27ef1ee746f.

To resolve this issue, define the «id» column as BIGINT, which can read the value «49612833315.» For more information, see Integer types.

Modified DDL statement:

CREATE EXTERNAL TABLE jsontest_error_hive_bad_data_sample_2_corrected (
    id BIGINT,
    name STRING
)
ROW FORMAT SERDE 'org.openx.data.jsonserde.JsonSerDe'
WITH SERDEPROPERTIES ( 'ignore.malformed.json' = 'true')
LOCATION 's3://awsexamplebucket/jsontest_error_hive_bad_data_2/';

Example 3

  • Source format: JSON
  • Issue: The input data is DECIMAL and the column is defined as DECIMAL in the table definition. However, the scale is defined as 2, which doesn’t match the «0.000054» value. For more information, see DECIMAL or NUMERIC type.

Source data:

{ "id" : 0.50, "name":"John" }
{ "id" : 0.51, "name":"Jane" }
{ "id" : 0.53, "name":"Jill" }
{ "id" : 0.000054, "name":"Jill" }

DDL statement:

CREATE EXTERNAL TABLE jsontest_error_hive_bad_data_sample_3(
    id DECIMAL(10,2),
    name STRING
)
ROW FORMAT SERDE 'org.openx.data.jsonserde.JsonSerDe'
WITH SERDEPROPERTIES ( 'ignore.malformed.json' = 'true')
LOCATION 's3://awsexamplebucket/jsontest_error_hive_bad_data_3/';

DML statement:

SELECT * 
FROM jsontest_error_hive_bad_data_sample_3

Error:

Your query has the following error(s):
HIVE_BAD_DATA: Error parsing column '0': target scale must be larger than source scale
This query ran against the "default" database, unless qualified by the query. Please post the error message on our forum or contact customer support with Query Id: 1c3c7278-7012-48bb-8642-983852aff999.

To resolve this issue, redefine the column with a scale that captures all input values. For example, instead of (10,2), use (10,7).

CREATE EXTERNAL TABLE jsontest_error_hive_bad_data_sample_3_corrected(
    id DECIMAL(10,7),
    name STRING
)
ROW FORMAT SERDE 'org.openx.data.jsonserde.JsonSerDe'
WITH SERDEPROPERTIES ( 'ignore.malformed.json' = 'true')
LOCATION 's3://awsexamplebucket/jsontest_error_hive_bad_data_3/';


Did this article help?


Do you need billing or technical support?

AWS support for Internet Explorer ends on 07/31/2022. Supported browsers are Chrome, Firefox, Edge, and Safari.
Learn more »

1 answer to this question.

Related Questions In Big Data Hadoop

  • All categories

  • ChatGPT
    (4)

  • Apache Kafka
    (84)

  • Apache Spark
    (596)

  • Azure
    (131)

  • Big Data Hadoop
    (1,907)

  • Blockchain
    (1,673)

  • C#
    (141)

  • C++
    (271)

  • Career Counselling
    (1,060)

  • Cloud Computing
    (3,446)

  • Cyber Security & Ethical Hacking
    (147)

  • Data Analytics
    (1,266)

  • Database
    (855)

  • Data Science
    (75)

  • DevOps & Agile
    (3,575)

  • Digital Marketing
    (111)

  • Events & Trending Topics
    (28)

  • IoT (Internet of Things)
    (387)

  • Java
    (1,247)

  • Kotlin
    (8)

  • Linux Administration
    (389)

  • Machine Learning
    (337)

  • MicroStrategy
    (6)

  • PMP
    (423)

  • Power BI
    (516)

  • Python
    (3,188)

  • RPA
    (650)

  • SalesForce
    (92)

  • Selenium
    (1,569)

  • Software Testing
    (56)

  • Tableau
    (608)

  • Talend
    (73)

  • TypeSript
    (124)

  • Web Development
    (3,002)

  • Ask us Anything!
    (66)

  • Others
    (1,929)

  • Mobile Development
    (263)

Subscribe to our Newsletter, and get personalized recommendations.

Already have an account? Sign in.

When trying to use the map complex data type as part of dynamic column mask, Hive throws a parsing error as it is expecting a primitive type (see trace pasted below). The use case is trying to apply masking to elements within a map type by applying a custom hive UDF (to apply the mask) using Ranger. Expect Hive to support complex data types for masking in addition to the primitive types. The expectation occurs when Hive need to evaluate the UDF or apply a standard mask (pass-through works as expected). You can recreate the problem by creating a simple table with a map data type column, then applying the masking to that column through a Ranger resource based policy and  a custom function (you can use a standard Hive UDF  str_to_map(‘F4′,’XXXX’) to simulate returning a map). 

CREATE  TABLE `mask_test`(
`key` string,
`value` map<string,string>)
STORED AS INPUTFORMAT
‘org.apache.hadoop.mapred.TextInputFormat’

INSERT INTO TABLE mask_test
SELECT ‘AAA’ as key,
map(‘F1′,’2022′,’F2′,’2222′,’F3′,’3333333’) as value
FROM (select 1 ) as temp;

Caused by: java.lang.RuntimeException: org.apache.hadoop.hive.ql.parse.SemanticException:org.apache.hadoop.hive.ql.parse.ParseException: line 1:57 cannot recognize input near ‘map’ ‘<‘ ‘string’ in primitive type specification
at org.apache.hadoop.hive.ql.parse.SemanticAnalyzer.rewriteASTWithMaskAndFilter(SemanticAnalyzer.java:10370)
at org.apache.hadoop.hive.ql.parse.SemanticAnalyzer.analyzeInternal(SemanticAnalyzer.java:10486)
at org.apache.hadoop.hive.ql.parse.CalcitePlanner.analyzeInternal(CalcitePlanner.java:219)
at org.apache.hadoop.hive.ql.parse.BaseSemanticAnalyzer.analyze(BaseSemanticAnalyzer.java:238)
at org.apache.hadoop.hive.ql.Driver.compile(Driver.java:465)
at org.apache.hadoop.hive.ql.Driver.compile(Driver.java:321)
at org.apache.hadoop.hive.ql.Driver.compileInternal(Driver.java:1224)
at org.apache.hadoop.hive.ql.Driver.compileAndRespond(Driver.java:1218)
at org.apache.hive.service.cli.operation.SQLOperation.prepare(SQLOperation.java:146)
… 15 more
Caused by: java.lang.RuntimeException: org.apache.hadoop.hive.ql.parse.ParseException:line 1:57 cannot recognize input near ‘map’ ‘<‘ ‘string’ in primitive type specification
at org.apache.hadoop.hive.ql.parse.ParseDriver.parse(ParseDriver.java:214)
at org.apache.hadoop.hive.ql.parse.ParseDriver.parse(ParseDriver.java:171)
at org.apache.hadoop.hive.ql.parse.ParseDriver.parse(ParseDriver.java:166)
at org.apache.hadoop.hive.ql.parse.SemanticAnalyzer.rewriteASTWithMaskAndFilter(SemanticAnalyzer.java:10368)

Fixes are available

APAR status

  • Closed as program error.

Error description

  • For example: Table name extracted from "select
    column_from_column from table_name;" is "_column" while it
    should be "table_name".
    It results in SyntaxErrorException:
    [SQLSTATE 42000] java.sql.SQLSyntaxErrorException: [IBM][Hive
    JDBC Driver][Hive]Error while compiling statement: FAILED:
    ParseException line 1:16 cannot recognize input near '_column'
    '<EOF>' '<EOF>' in table name.
    It happens only when parallel read is enabled and sql
    generation disabled because only then the name has to be
    extracted. Parallel read requires partition info that has to be
    queried for a given table.
    

Local fix

  • 
    

Problem summary

  • ****************************************************************
    USERS AFFECTED:
    Hive Connector users attempting partitioned read.
    ****************************************************************
    PROBLEM DESCRIPTION:
    When keyword 'from' is part of a column name Hive Connector
    extracts what comes after 'from' as the table name.
    For example: Table name extracted from "select
    column_from_column from table_name;" is "_column" while it
    should be "table_name".
    It results in SyntaxErrorException:
    [SQLSTATE 42000] java.sql.SQLSyntaxErrorException: [IBM][Hive
    JDBC Driver][Hive]Error while compiling statement: FAILED:
    ParseException line 1:16 cannot recognize input near '_column'
    '<EOF>' '<EOF>' in table name.
    It happens only when parallel read is enabled and sql generation
    disabled because only then the name has to be extracted.
    Parallel read requires partition info that has to be queried for
    a given table.
    ****************************************************************
    RECOMMENDATION:
    Install patch.
    ****************************************************************
    

Problem conclusion

  • Fixed query parsing to allow 'from' be used as part of column or
     table name.
    

Temporary fix

  • 
    

Comments

  • 
    

APAR Information

  • APAR number

    JR59692

  • Reported component name

    WIS DATASTAGE

  • Reported component ID

    5724Q36DS

  • Reported release

    B50

  • Status

    CLOSED PER

  • PE

    NoPE

  • HIPER

    NoHIPER

  • Special Attention

    NoSpecatt / Xsystem

  • Submitted date

    2018-06-26

  • Closed date

    2018-08-17

  • Last modified date

    2018-08-17

  • APAR is sysrouted FROM one or more of the following:

  • APAR is sysrouted TO one or more of the following:

Fix information

  • Fixed component name

    WIS DATASTAGE

  • Fixed component ID

    5724Q36DS

Applicable component levels

  • RB50 PSY

       UP

  • RB70 PSY

       UP

[{«Business Unit»:{«code»:»BU059″,»label»:»IBM Software w/o TPS»},»Product»:{«code»:»SSVSEF»,»label»:»InfoSphere DataStage»},»Platform»:[{«code»:»PF025″,»label»:»Platform Independent»}],»Version»:»11.5″,»Line of Business»:{«code»:»LOB10″,»label»:»Data and AI»}}]

Document Information

Modified date:

10 January 2022

  • #13.521

«devices»: «4,5,6» так отработало, причём после того как скопировал эту команду из подсказки, может кавычки с мобильника не те, так и не понял, что было))) Сейчас все прекрасно заработало.

У вас пробела не было, как я понял.

  • #13.522

«devices»: «4,5,6» так отработало, причём после того как скопировал эту команду из подсказки, может кавычки с мобильника не те, так и не понял, что было))) Сейчас все прекрасно заработало.

Заметил что если майнить разными майнерами на один пул и кошелк то хешрейт одного из майнеров не доходит до пула , это так ? На разные кошельки все ок !

  • #13.523

Всем привет. пытаюсь настроить первый РИГ и упираюсь в «error: parsing json failed» и следом «Sorry, id and password did not work». Подскажите, как ее победить)?

  • #13.524

Заметил что если майнить разными майнерами на один пул и кошелк то хешрейт одного из майнеров не доходит до пула , это так ? На разные кошельки все ок !

Это так

  • #13.525

Всем привет. пытаюсь настроить первый РИГ и упираюсь в «error: parsing json failed» и следом «Sorry, id and password did not work». Подскажите, как ее победить)?

Скопировать файл rig.conf в корень диска на ферме!

  • IMG_20211019_212601.jpg

    IMG_20211019_212601.jpg

    211,4 КБ · Просмотры: 23

  • #13.526

на пуле хешрейт от одного майнера

  • #13.527

В чем тогда прикол? Reported хешрейт не доходит, а шары плюсует и current хешрейт нормальный. Это все касаемо ethermine. Может это ограничение hive is?

  • #13.528

Заметил что если майнить разными майнерами на один пул и кошелк то хешрейт одного из майнеров не доходит до пула , это так ? На разные кошельки все ок !

на предыдущих страницах все было уже, посмотреть их сложно, вот в чем проблема
тут

Последнее редактирование: 20 Окт 2021

  • #13.529

может кавычки с мобильника

не может, а точно потому что прямые кавычки, принятые в JSON, на телефоне многие мессанджеры как и Word заменяет на фигурные
"key": "value" vs “key”: “value”

  • #13.530

на предыдущих страницах все было уже, посмотреть их сложно, вот в чем проблема
тут

СПС

  • #13.531

Конечно:

  • B250-FinTech-CF Gigabyte
  • CPU G4600 @ 3.60GHz
  • Модель диска ATA KINGSTON SA400S3 120GB
  • Оперативка 8 гигов.
  • Cервeрный блoк питания IBМ DРS-2500ВВ
  • Корпус с разделяемыми потоками+ канальный вентилятор 1000 кубов

ASUS Dual Radeon RX 5700 EVO OC, память Micron (6 штук из одной партии)

Оптимизированные тайминги (в данном случае применяю тайминги серии Apple straps bios )

До версии [email protected] все работало стабильно.


При выходе 204 начался непредсказуемый отвал. Может отвалится карта 0, перезагрузка и через 3 минуты карта 3
В час то 10 отвалов. Отваливаются именно карты на Микроне.

Были рекомендации (в этой ветке) о занижении разгона, но у меня и так никакого разгона как такового нет.

Решение было в откате на 203 и сразу стабильная работа.
после выхода Вашей каждой новой версии обновляюсь, ловлю массовые отвалы и опять откатываюсь назад.

ЗЫ Сорри, но с логами не умею работать. Если нужно будет то выполню нужные Ваши инструкции или предоставлю доступ.

ЗЫ ЗЫ В данной ветке не менее 7 человек писали об аналогичной проблеме.

Посмотреть вложение 235588

Ув. представители @HiveOS

Приняли ли Вы информацию к сведению? Будет ли решение?

Ибо сейчас при откате к 203 версии откатываются и версии майнеров и еще чуть чуть и придется бежать с HiveOS ибо не станет возможно работать с этими картами на вашей системе!!

  • #13.532

еще чуть чуть и придется бежать с HiveOS

Run Forest, run!

  • #13.533

Всем привет, постоянно в надежде что исправят косяк с 5700. Солянка с 5700+3070(не лшр) все что [email protected] и выше идет отвал по 5700. Память самсунг. Если кто победил тыцните.

  • #13.534

Это официальная тема поддержки Hive OS на этом форуме.

Сервис мониторинга и операционная системя для майнинга. Мониторинг, управление, возможность разгона.

Официальный сайт — https://hiveos.farm

Установленные майнеры

  • Claymore Dual Ethereum Miner
  • Claymore ZCash AMD GPU Miner
  • Claymore CryptoNote AMD GPU Miner
  • Ethminer
  • ccminer (forks available)
  • sgminer (forks available)
  • Bminer Equihash miner
  • Dstm’s ZCash Cuda miner
  • EWBF’s CUDA Zcash miner
  • Optiminer
  • LolMiner-mnx
  • XMR Stak AMD Nvidia CPU
  • XMR Stak CPU
  • XMRig
  • cpuminer-opt
  • Другие майнеры, если становятся популярными

Поддержка GPU:

  • AMD Radeon RX Family (460, 470, 480, 560, 570, 580, …) overclocking supported
  • Nvidia GeForce 10×0 Family (1050, 1050ti, 1060, 1070, 1070ti, 1080, 1080ti, P106-090, P106-100, P104-100, P102-100 …) overclocking supported

Поддержка ASIC’ов:

  • Antminer S9, D3, L3, A3, …

Поддержка вотчдогов:

  • WatchdogInUa
  • OpenDev
  • Esonics
  • Chinese Watchdogs (QinHeng Electronics HL-340)
  • SimpleRigResetter SSRv2

Другие фишки:

  • Telegram нотификации, оффлайн/онлайн события и сообщения.
  • Hashrate Watchdog перезагрузит ферму при падении хешрейта, зависании майнера или драйверов.
  • Second Miner, возмоность паралельного запуска второго майнера, к примеру отдельные майнеры для красных и зеленых карт или запуска майнера на CPU.
  • WiFi, поддерживается.
  • Ставится на флешку от 8Gb или SSD, HDD
  • Можно миксовать Nvdia и AMD на одной ферме
  • Конфиги сети и фермы доступны из Windows для быстрого запуска
  • Запускается на 19 GPU на Asus B250 Mining Expert
  • Комплексные операции над ригами (смена майнера, применение профиля кошелька, применение профилей разгона, перезагрузка, выключение, обновление).
  • HiveOS API для разработки сторонних приложений.

Официальные ресурсы:
— Канал в Youtube с обучающими видео
— Форум HiveOS
— Группа поддержки в Телеграмм
— Группа поддержки в Facebook
— Канал анонсов в Телеграмм

И для любителей заговоров (исходники клиентской части):
https://github.com/minershive/hiveos-linux

Обратите внимание на версии драйверов в сборках
Драйвера не обновляются по воздуху
http://download.hiveos.farm

hive-0.5-45
md5sum d268e946ccb34cd982aa248a7a617a6c hive-0.5-45-20180419.zip
Linux worker 4.13.16-hiveos #1 SMP Tue Apr 17 18:30:28 EEST 2018 x86_64 x86_64 x86_64 GNU/Linux
amdgpu-pro 17.50-511655
nvidia 390.48

hive-0.5-32
md5sum 3971faebb116b4639a3edbad245762ee hive-0.5-32-20180228.zip
Linux 4.10.17-hiveos #1 SMP Sun Dec 10 08:48:43 EET 2017 x86_64 x86_64 x86_64 GNU/Linux
amdgpu-pro 17.50-511655
nvidia 390.25

hive-0.5-12
md5sum 1d25da6f16a0dc337d98a9c1372ab35a hive-0.5-12-20171211.zip
Linux 4.10.17-hiveos #1 SMP Sun Dec 10 08:48:43 EET 2017 x86_64 x86_64 x86_64 GNU/Linux
amdgpu-pro 17.40-492261
nvidia 387.34

hive-0.5-03
md5sum 96c2aa1d104359fcef7a0e83c58e2530 hive-0.5-03-20171029.zip
Linux 4.10.0-37-generic #41~16.04.1-Ubuntu SMP Fri Oct 6 22:42:59 UTC 2017 x86_64 x86_64 x86_64 GNU/Linux
amdgpu-pro 17.40-483984
nvidia 387.12

hive-0.4-20
md5sum f129826b0f782ceb1eca7ba6e125d5d7 hive-0.4-20-20171014.zip
Linux 4.11.0-kfd-compute-rocm-rel-1.6-148 #1 SMP Wed Aug 23 12:00:35 CDT 2017 x86_64 x86_64 x86_64 GNU/Linux
amdgpu-pro 16.60-379184
nvidia 384.90

Известные нюансы:

— видеокарты семейства AMD Radeon HD79xx, R9 официально не поддерживаются, но работают с определенными ограничениями (нет управления разгоном и вентиляторами);
— видеокарты AMD Radeon RX 550 работают после определенной модификации
— видеокарты AMD Radeon RX Vega series добавлена поддержка с версии 0.5.45 (необходима установка с образа), работают с определенными ограничениями (https://rocm.github.io/hardware.html)
— видеокарты NVidia GTX 9xx работают, возможно необходим небольшой тюнинг
— отображаемое потребление видеокарт для карт NVidia более-менее совпадает с данными ваттметра, для карт AMD значение относительное (потребление ядра) и может существенно отличается от реального значения. Потребление видеокарт NVidia GTX 1050ti не отображается на драйверах серий 387, 390.

Hive говно!

  • #13.535

Сапорт не работает! j,обн6ова 2-3 дня Hive-Говно!

жаль пошли необратимые процессы с вами

  • #13.536

жаль пошли необратимые процессы с вами

побочные последствия Sputnik-V

  • #13.538

значит к деньгам :D

А вообще напомнило анекдот:

Мужик напился лежит в луже, мимо идет светская дама
Дама переступая лужу :- Мужчина вы пьяны, как так можно напиваться? Вы омерзительно пьяны!
Мужик, прилагая усилия, поднимает голову и видит женские ноги:
— А у тебя ноги кривые!
Дама начинает еще больше возмущаться:
Мужик — У тебя ноги кривые, а я завтра трезвый буду.

:)

  • #13.539

Можно ли как-то в хайве посмотреть напряжение ядра видеочипа карт Nvidia?

  • #13.540

Можно ли как-то в хайве посмотреть напряжение ядра видеочипа карт Nvidia?

Здравствуйте! К сожалению нет, так как мониторинга и управления нет в линуксе для Nvidia. Тут нужно обращаться непосредственно к производителю.

Понравилась статья? Поделить с друзьями:

Читайте также:

  • Hitman врачебная не ошибка
  • Hitman absolution ошибка при запуске приложения 0xc0000906 как исправить
  • Hitman absolution ошибка инициализации steam
  • Hitman absolution не запускается на windows 10 ошибка 0xc0000906
  • Hitman absolution как изменить язык

  • 0 0 голоса
    Рейтинг статьи
    Подписаться
    Уведомить о
    guest

    0 комментариев
    Старые
    Новые Популярные
    Межтекстовые Отзывы
    Посмотреть все комментарии