@Carlton Patterson,
Can you try setting it to ROW FORMAT DELIMITED instead of COLUMN FORMAT DELIMITED and try running the query.
Thanks,
Aditya
Aditya,
Thanks for getting in touch,
I change script to the following:
DROP TABLE IF EXISTS HiveSampleIn; CREATE EXTERNAL TABLE HiveSampleIn ( anonid int, eprofileclass int, fueltypes STRING, acorn_category int, acorn_group STRING, acorn_type int, nuts4 STRING, lacode STRING, nuts1 STRING, gspgroup STRING, ldz STRING, gas_elec STRING, gas_tout STRING ) ROW FORMAT DELIMITED FIELDS TERMINATED BY ',' LINES TERMINATED BY '10' STORED AS TEXTFILE LOCATION ' wasb://adfgetstarted@geogstoreacct.blob.core.windows.net/samplein/'; TBLPROPERTIES ("skip.header.line.count" = "1"); DROP TABLE IF EXISTS HiveSampleOut; CREATE EXTERNAL TABLE HiveSampleOut ( acorn_category int ) ROW FORMAT DELIMITED FIELDS TERMINATED BY ',' LINES TERMINATED BY '10' STORED AS TEXTFILE LOCATION ' wasb://adfgetstarted@geogstoreacct.blob.core.windows.net/sampleout/'; TBLPROPERTIES ("skip.header.line.count" = "1"); INSERT OVERWRITE TABLE HiveSampleOut Select acorn_category, count(*) as acorn_categorycount FROM HiveSampleIn Group by acorn_category
But I’m now getting the following errors:
Time taken: 2.684 seconds FAILED: ParseException line 18:46 character '<EOF>' not supported here 18/01/29 11:37:24 [main]: ERROR ql.Driver: FAILED: ParseException line 18:46 character '<EOF>' not supported here org.apache.hadoop.hive.ql.parse.ParseException: line 18:46 character '<EOF>' not supported here
Hi Aditya,
I tried your suggestion, but now I’m getting the following error:
FAILED: IllegalArgumentException java.net.URISyntaxException: Illegal character in scheme name at index 0: wasb://adfgetstarted@geogstoreacct.blob.core.windows.net/samplein 18/01/29 12:18:20 [main]: ERROR ql.Driver: FAILED: IllegalArgumentException java.net.URISyntaxException: Illegal character in scheme name at index 0: wasb://adfgetstarted@geogstoreacct.blob.core.windows.net/samplein java.lang.IllegalArgumentException: java.net.URISyntaxException: Illegal character in scheme name at index 0: wasb://adfgetstarted@geogstoreacct.blob.core.windows.net/samplein
The new code looks like the following:
DROP TABLE IF EXISTS HiveSampleIn; CREATE EXTERNAL TABLE HiveSampleIn ( anonid int, eprofileclass int, fueltypes STRING, acorn_category int, acorn_group STRING, acorn_type int, nuts4 STRING, lacode STRING, nuts1 STRING, gspgroup STRING, ldz STRING, gas_elec STRING, gas_tout STRING ) ROW FORMAT DELIMITED FIELDS TERMINATED BY ',' LINES TERMINATED BY '10' STORED AS TEXTFILE LOCATION ' wasb://adfgetstarted@geogstoreacct.blob.core.windows.net/samplein/' TBLPROPERTIES ("skip.header.line.count" = "1"); DROP TABLE IF EXISTS HiveSampleOut; CREATE EXTERNAL TABLE HiveSampleOut ( acorn_category int ) ROW FORMAT DELIMITED FIELDS TERMINATED BY ',' LINES TERMINATED BY '10' STORED AS TEXTFILE LOCATION ' wasb://adfgetstarted@geogstoreacct.blob.core.windows.net/sampleout/' TBLPROPERTIES ("skip.header.line.count" = "1"); INSERT OVERWRITE TABLE HiveSampleOut Select acorn_category, count(*) as acorn_categorycount FROM HiveSampleIn Group by acorn_category
Hello Community,
I have updated the script as follows:
DROP TABLE IF EXISTS HiveSampleIn; CREATE EXTERNAL TABLE HiveSampleIn ( anonid int, eprofileclass int, fueltypes STRING, acorn_category int, acorn_group STRING, acorn_type int, nuts4 STRING, lacode STRING, nuts1 STRING, gspgroup STRING, ldz STRING, gas_elec STRING, gas_tout STRING ) ROW FORMAT DELIMITED FIELDS TERMINATED BY ',' LINES TERMINATED BY '10' STORED AS TEXTFILE LOCATION 'wasb://adfgetstarted@geogstoreacct.blob.core.windows.net/samplein/' TBLPROPERTIES ("skip.header.line.count" = "1"); DROP TABLE IF EXISTS HiveSampleOut; CREATE EXTERNAL TABLE HiveSampleOut ( acorn_category int ) ROW FORMAT DELIMITED FIELDS TERMINATED BY ',' LINES TERMINATED BY '10' STORED AS TEXTFILE LOCATION 'wasb://adfgetstarted@geogstoreacct.blob.core.windows.net/sampleout/' INSERT OVERWRITE TABLE HiveSampleOut Select acorn_category FROM HiveSampleIn Group by acorn_category TBLPROPERTIES ("skip.header.line.count" = "1");
However, I’m getting the following error message:
Time taken: 0.499 seconds FAILED: ParseException line 7:0 missing EOF at 'INSERT' near ''wasb://adfgetstarted@geogstoreacct.blob.core.windows.net/sampleout/'' 18/01/29 15:34:09 [main]: ERROR ql.Driver: FAILED: ParseException line 7:0 missing EOF at 'INSERT' near ''wasb://adfgetstarted@geogstoreacct.blob.core.windows.net/sampleout/'' org.apache.hadoop.hive.ql.parse.ParseException: line 7:0 missing EOF at 'INSERT' near ''wasb://adfgetstarted@geogstoreacct.blob.core.windows.net/sampleout/''
Any help will be greatly appreciated.
Cheers
Hello Community,
While waiting for some assistance, I have created the the following HQL script, but I’m still have the problem:
DROP TABLE IF EXISTS HiveSampleIn; CREATE EXTERNAL TABLE HiveSampleIn ( anonid INT, eprofileclass INT, fueltypes STRING, acorn_category INT, acorn_group STRING, acorn_type INT, nuts4 STRING, lacode STRING, nuts1 STRING, gspgroup STRING, ldz STRING, gas_elec STRING, gas_tout STRING ) ROW FORMAT DELIMITED FIELDS TERMINATED BY ',' STORED AS TEXTFILE LOCATION 'wasb://adfgetstarted@geogstoreacct.blob.core.windows.net/samplein/'; tblproperties ("skip.header.line.count"="2"); DROP TABLE IF EXISTS HiveSampleOut; CREATE EXTERNAL TABLE HiveSampleOut ( acorn_category int ) ROW FORMAT DELIMITED FIELDS TERMINATED BY ',' STORED AS TEXTFILE LOCATION 'wasb://adfgetstarted@geogstoreacct.blob.core.windows.net/sampleout/'; INSERT OVERWRITE TABLE HiveSampleOut Select acorn_category FROM HiveSampleIn Group by acorn_category;
I’m getting the following error:
Time taken: 2.663 seconds FAILED: ParseException line 21:44 missing EOF at ',' near ')' 18/01/29 21:37:15 [main]: ERROR ql.Driver: FAILED: ParseException line 21:44 missing EOF at ',' near ')' org.apache.hadoop.hive.ql.parse.ParseException: line 21:44 missing EOF at ',' near ')'
Any help with this will be greatly appreciated.
Cheers
Carlton
CREATE EXTERNAL TABLE HiveSampleIn
…
LOCATION ‘wasb://adfgetstarted@geogstoreacct.blob.core.windows.net/samplein/’; — Getting terminated at here
tblproperties («skip.header.line.count»=»2»); — This might be throwing ParseException
Hi Naresh,
Thanks for getting in touch.
Can you think of any reason why tblproperties («skip.header.line.count»=»2»); is throwing the error? And any suggestions on how to fix it?
Much appreciated.
Carlton
pls try to use below command for creating HiveSampleIn Table
CREATE EXTERNAL TABLE HiveSampleIn ( anonid INT, eprofileclass INT, fueltypes STRING, acorn_category INT, acorn_group STRING, acorn_type INT, nuts4 STRING, lacode STRING, nuts1 STRING, gspgroup STRING, ldz STRING, gas_elec STRING, gas_tout STRING ) ROW FORMAT DELIMITED FIELDS TERMINATED BY ',' STORED AS TEXTFILE LOCATION 'wasb://adfgetstarted@geogstoreacct.blob.core.windows.net/samplein/' tblproperties ("skip.header.line.count"="2");
This could be because you are parsing actual data in the place of header,supposing your first row has header and second row onwards has data.
Hence it can’t parse data(int, string) as header(string).
So try changing it to («skip.header.line.count»=»1»);
Hope this helps.
Why does my Amazon Athena query fail with the error «HIVE_BAD_DATA: Error parsing field value for field X: For input string: «12312845691»»?
Last updated: 2021-11-22
When I query data in Amazon Athena, I get an error similar to one of the following:
«HIVE_BAD_DATA: Error parsing field value for field X: For input string: «12312845691»
«HIVE_BAD_DATA: Error parsing column ‘0’: target scale must be larger than source scale»
Short description
Resolution
It’s a best practice to use only one data type in a column. Otherwise, the query might fail. To resolve errors, be sure that each column contains values of the same data type, and that the values are in the allowed ranges.
If you still get errors, change the column’s data type to a compatible data type that has a higher range. If you can’t solve the problem by changing the data type,then try the solutions in the following examples.
Example 1
- Source format: JSON
- Issue: In the last record, the «id» key value is «0.54,» which is the DECIMAL data type. However, for the other records, the «id» key value is set to INT.
Source data:
{ "id" : 50, "name":"John" }
{ "id" : 51, "name":"Jane" }
{ "id" : 53, "name":"Jill" }
{ "id" : 0.54, "name":"Jill" }
Data Definition Language (DDL) statement:
CREATE EXTERNAL TABLE jsontest_error_hive_bad_data (
id INT,
name STRING
)
ROW FORMAT SERDE 'org.openx.data.jsonserde.JsonSerDe'
WITH SERDEPROPERTIES ( 'ignore.malformed.json' = 'true')
LOCATION 's3://awsexamplebucket/jsontest_error_hive_bad_data/';
Data Manipulation Language (DML) statement:
SELECT *
FROM jsontest_error_hive_bad_data
Error:
Your query has the following error(s):
HIVE_BAD_DATA: Error parsing field value '0.54' for field 0: For input string: "0.54"
This query ran against the "default" database, unless qualified by the query. Please post the error message on our forum or contact customer support with Query Id: bd50793b-94fc-42a7-b131-b7c81da273b2.
To resolve this issue, redefine the «id» column as STRING. The STRING data type can correctly represent all values in this dataset. Example:
CREATE EXTERNAL TABLE jsontest_error_hive_bad_data_correct_id_data_type (
id STRING,
name STRING
)
ROW FORMAT SERDE 'org.openx.data.jsonserde.JsonSerDe'
WITH SERDEPROPERTIES ( 'ignore.malformed.json' = 'true')
LOCATION 's3://awsexamplebucket/jsontest_error_hive_bad_data/';
DML statement:
SELECT *
FROM jsontest_error_hive_bad_data_correct_id_data_type
You can also CAST to the desired data type. For example, you can cast a string as an integer. However, depending on the data types that you are casting from and to, this might return null or inaccurate results. Values that can’t be cast are discarded. For example, casting the string value «0.54» to INT returns null results:
SELECT TRY_CAST(id AS INTEGER)
FROM jsontest_error_hive_bad_data_correct_id_data_type
Example output:
Results
_col0
1 50
2 51
3 53
4
The output shows that the value «0.54» was discarded. You can’t cast that value directly from a string to an integer. To resolve this issue, use COALESCE to CAST the mixed type values in the same column as the output. Then, allow the aggregate function to run on the column. Example:
SELECT COALESCE(TRY_CAST(id AS INTEGER), TRY_CAST(id AS DECIMAL(10,2)))
FROM jsontest_error_hive_bad_data_correct_id_data_type
Output:
Results
_col0
1 50.00
2 51.00
3 53.00
4 0.54
Run aggregate functions:
SELECT SUM(COALESCE(TRY_CAST(id AS INTEGER), TRY_CAST(id AS DECIMAL(10,2))))
FROM jsontest_error_hive_bad_data_correct_id_data_type
Output:
Example 2
- Source format: JSON
- Issue: The «id» column is defined as INT. Athena couldn’t parse «49612833315» because the range for INT values in Presto is -2147483648 to 2147483647.
Source data:
{ "id" : 50, "name":"John" }
{ "id" : 51, "name":"Jane" }
{ "id" : 53, "name":"Jill" }
{ "id" : 49612833315, "name":"Jill" }
DDL statement:
CREATE EXTERNAL TABLE jsontest_error_hive_bad_data_sample_2 (
id INT,
name STRING
)
ROW FORMAT SERDE 'org.openx.data.jsonserde.JsonSerDe'
WITH SERDEPROPERTIES ( 'ignore.malformed.json' = 'true')
LOCATION 's3://awsexamplebucket/jsontest_error_hive_bad_data_2/';
DML statement:
SELECT *
FROM jsontest_error_hive_bad_data_sample_2
Error:
Your query has the following error(s):
HIVE_BAD_DATA: Error parsing field value '49612833315' for field 0: For input string: "49612833315"
This query ran against the "default" database, unless qualified by the query. Please post the error message on our forum or contact customer support with Query Id: 05b55fb3-481a-4012-8c0d-c27ef1ee746f.
To resolve this issue, define the «id» column as BIGINT, which can read the value «49612833315.» For more information, see Integer types.
Modified DDL statement:
CREATE EXTERNAL TABLE jsontest_error_hive_bad_data_sample_2_corrected (
id BIGINT,
name STRING
)
ROW FORMAT SERDE 'org.openx.data.jsonserde.JsonSerDe'
WITH SERDEPROPERTIES ( 'ignore.malformed.json' = 'true')
LOCATION 's3://awsexamplebucket/jsontest_error_hive_bad_data_2/';
Example 3
- Source format: JSON
- Issue: The input data is DECIMAL and the column is defined as DECIMAL in the table definition. However, the scale is defined as 2, which doesn’t match the «0.000054» value. For more information, see DECIMAL or NUMERIC type.
Source data:
{ "id" : 0.50, "name":"John" }
{ "id" : 0.51, "name":"Jane" }
{ "id" : 0.53, "name":"Jill" }
{ "id" : 0.000054, "name":"Jill" }
DDL statement:
CREATE EXTERNAL TABLE jsontest_error_hive_bad_data_sample_3(
id DECIMAL(10,2),
name STRING
)
ROW FORMAT SERDE 'org.openx.data.jsonserde.JsonSerDe'
WITH SERDEPROPERTIES ( 'ignore.malformed.json' = 'true')
LOCATION 's3://awsexamplebucket/jsontest_error_hive_bad_data_3/';
DML statement:
SELECT *
FROM jsontest_error_hive_bad_data_sample_3
Error:
Your query has the following error(s):
HIVE_BAD_DATA: Error parsing column '0': target scale must be larger than source scale
This query ran against the "default" database, unless qualified by the query. Please post the error message on our forum or contact customer support with Query Id: 1c3c7278-7012-48bb-8642-983852aff999.
To resolve this issue, redefine the column with a scale that captures all input values. For example, instead of (10,2), use (10,7).
CREATE EXTERNAL TABLE jsontest_error_hive_bad_data_sample_3_corrected(
id DECIMAL(10,7),
name STRING
)
ROW FORMAT SERDE 'org.openx.data.jsonserde.JsonSerDe'
WITH SERDEPROPERTIES ( 'ignore.malformed.json' = 'true')
LOCATION 's3://awsexamplebucket/jsontest_error_hive_bad_data_3/';
Did this article help?
Do you need billing or technical support?
AWS support for Internet Explorer ends on 07/31/2022. Supported browsers are Chrome, Firefox, Edge, and Safari.
Learn more »
1 answer to this question.
Related Questions In Big Data Hadoop
- All categories
-
ChatGPT
(4) -
Apache Kafka
(84) -
Apache Spark
(596) -
Azure
(131) -
Big Data Hadoop
(1,907) -
Blockchain
(1,673) -
C#
(141) -
C++
(271) -
Career Counselling
(1,060) -
Cloud Computing
(3,446) -
Cyber Security & Ethical Hacking
(147) -
Data Analytics
(1,266) -
Database
(855) -
Data Science
(75) -
DevOps & Agile
(3,575) -
Digital Marketing
(111) -
Events & Trending Topics
(28) -
IoT (Internet of Things)
(387) -
Java
(1,247) -
Kotlin
(8) -
Linux Administration
(389) -
Machine Learning
(337) -
MicroStrategy
(6) -
PMP
(423) -
Power BI
(516) -
Python
(3,188) -
RPA
(650) -
SalesForce
(92) -
Selenium
(1,569) -
Software Testing
(56) -
Tableau
(608) -
Talend
(73) -
TypeSript
(124) -
Web Development
(3,002) -
Ask us Anything!
(66) -
Others
(1,929) -
Mobile Development
(263)
Subscribe to our Newsletter, and get personalized recommendations.
Already have an account? Sign in.
When trying to use the map complex data type as part of dynamic column mask, Hive throws a parsing error as it is expecting a primitive type (see trace pasted below). The use case is trying to apply masking to elements within a map type by applying a custom hive UDF (to apply the mask) using Ranger. Expect Hive to support complex data types for masking in addition to the primitive types. The expectation occurs when Hive need to evaluate the UDF or apply a standard mask (pass-through works as expected). You can recreate the problem by creating a simple table with a map data type column, then applying the masking to that column through a Ranger resource based policy and a custom function (you can use a standard Hive UDF str_to_map(‘F4′,’XXXX’) to simulate returning a map).
CREATE TABLE `mask_test`(
`key` string,
`value` map<string,string>)
STORED AS INPUTFORMAT
‘org.apache.hadoop.mapred.TextInputFormat’
INSERT INTO TABLE mask_test
SELECT ‘AAA’ as key,
map(‘F1′,’2022′,’F2′,’2222′,’F3′,’3333333’) as value
FROM (select 1 ) as temp;
Caused by: java.lang.RuntimeException: org.apache.hadoop.hive.ql.parse.SemanticException:org.apache.hadoop.hive.ql.parse.ParseException: line 1:57 cannot recognize input near ‘map’ ‘<‘ ‘string’ in primitive type specification
at org.apache.hadoop.hive.ql.parse.SemanticAnalyzer.rewriteASTWithMaskAndFilter(SemanticAnalyzer.java:10370)
at org.apache.hadoop.hive.ql.parse.SemanticAnalyzer.analyzeInternal(SemanticAnalyzer.java:10486)
at org.apache.hadoop.hive.ql.parse.CalcitePlanner.analyzeInternal(CalcitePlanner.java:219)
at org.apache.hadoop.hive.ql.parse.BaseSemanticAnalyzer.analyze(BaseSemanticAnalyzer.java:238)
at org.apache.hadoop.hive.ql.Driver.compile(Driver.java:465)
at org.apache.hadoop.hive.ql.Driver.compile(Driver.java:321)
at org.apache.hadoop.hive.ql.Driver.compileInternal(Driver.java:1224)
at org.apache.hadoop.hive.ql.Driver.compileAndRespond(Driver.java:1218)
at org.apache.hive.service.cli.operation.SQLOperation.prepare(SQLOperation.java:146)
… 15 more
Caused by: java.lang.RuntimeException: org.apache.hadoop.hive.ql.parse.ParseException:line 1:57 cannot recognize input near ‘map’ ‘<‘ ‘string’ in primitive type specification
at org.apache.hadoop.hive.ql.parse.ParseDriver.parse(ParseDriver.java:214)
at org.apache.hadoop.hive.ql.parse.ParseDriver.parse(ParseDriver.java:171)
at org.apache.hadoop.hive.ql.parse.ParseDriver.parse(ParseDriver.java:166)
at org.apache.hadoop.hive.ql.parse.SemanticAnalyzer.rewriteASTWithMaskAndFilter(SemanticAnalyzer.java:10368)
Fixes are available
APAR status
-
Closed as program error.
Error description
-
For example: Table name extracted from "select column_from_column from table_name;" is "_column" while it should be "table_name". It results in SyntaxErrorException: [SQLSTATE 42000] java.sql.SQLSyntaxErrorException: [IBM][Hive JDBC Driver][Hive]Error while compiling statement: FAILED: ParseException line 1:16 cannot recognize input near '_column' '<EOF>' '<EOF>' in table name. It happens only when parallel read is enabled and sql generation disabled because only then the name has to be extracted. Parallel read requires partition info that has to be queried for a given table.
Local fix
Problem summary
-
**************************************************************** USERS AFFECTED: Hive Connector users attempting partitioned read. **************************************************************** PROBLEM DESCRIPTION: When keyword 'from' is part of a column name Hive Connector extracts what comes after 'from' as the table name. For example: Table name extracted from "select column_from_column from table_name;" is "_column" while it should be "table_name". It results in SyntaxErrorException: [SQLSTATE 42000] java.sql.SQLSyntaxErrorException: [IBM][Hive JDBC Driver][Hive]Error while compiling statement: FAILED: ParseException line 1:16 cannot recognize input near '_column' '<EOF>' '<EOF>' in table name. It happens only when parallel read is enabled and sql generation disabled because only then the name has to be extracted. Parallel read requires partition info that has to be queried for a given table. **************************************************************** RECOMMENDATION: Install patch. ****************************************************************
Problem conclusion
-
Fixed query parsing to allow 'from' be used as part of column or table name.
Temporary fix
Comments
APAR Information
-
APAR number
JR59692
-
Reported component name
WIS DATASTAGE
-
Reported component ID
5724Q36DS
-
Reported release
B50
-
Status
CLOSED PER
-
PE
NoPE
-
HIPER
NoHIPER
-
Special Attention
NoSpecatt / Xsystem
-
Submitted date
2018-06-26
-
Closed date
2018-08-17
-
Last modified date
2018-08-17
-
APAR is sysrouted FROM one or more of the following:
-
APAR is sysrouted TO one or more of the following:
Fix information
-
Fixed component name
WIS DATASTAGE
-
Fixed component ID
5724Q36DS
Applicable component levels
-
RB50 PSY
UP
-
RB70 PSY
UP
[{«Business Unit»:{«code»:»BU059″,»label»:»IBM Software w/o TPS»},»Product»:{«code»:»SSVSEF»,»label»:»InfoSphere DataStage»},»Platform»:[{«code»:»PF025″,»label»:»Platform Independent»}],»Version»:»11.5″,»Line of Business»:{«code»:»LOB10″,»label»:»Data and AI»}}]
Document Information
Modified date:
10 January 2022
-
#13.521
«devices»: «4,5,6» так отработало, причём после того как скопировал эту команду из подсказки, может кавычки с мобильника не те, так и не понял, что было))) Сейчас все прекрасно заработало.
У вас пробела не было, как я понял.
-
#13.522
«devices»: «4,5,6» так отработало, причём после того как скопировал эту команду из подсказки, может кавычки с мобильника не те, так и не понял, что было))) Сейчас все прекрасно заработало.
Заметил что если майнить разными майнерами на один пул и кошелк то хешрейт одного из майнеров не доходит до пула , это так ? На разные кошельки все ок !
-
#13.523
Всем привет. пытаюсь настроить первый РИГ и упираюсь в «error: parsing json failed» и следом «Sorry, id and password did not work». Подскажите, как ее победить)?
-
#13.524
Заметил что если майнить разными майнерами на один пул и кошелк то хешрейт одного из майнеров не доходит до пула , это так ? На разные кошельки все ок !
Это так
-
#13.525
Всем привет. пытаюсь настроить первый РИГ и упираюсь в «error: parsing json failed» и следом «Sorry, id and password did not work». Подскажите, как ее победить)?
Скопировать файл rig.conf в корень диска на ферме!
-
IMG_20211019_212601.jpg
211,4 КБ · Просмотры: 23
-
#13.526
на пуле хешрейт от одного майнера
-
#13.527
В чем тогда прикол? Reported хешрейт не доходит, а шары плюсует и current хешрейт нормальный. Это все касаемо ethermine. Может это ограничение hive is?
-
#13.528
Заметил что если майнить разными майнерами на один пул и кошелк то хешрейт одного из майнеров не доходит до пула , это так ? На разные кошельки все ок !
на предыдущих страницах все было уже, посмотреть их сложно, вот в чем проблема
тут
Последнее редактирование: 20 Окт 2021
-
#13.529
может кавычки с мобильника
не может, а точно потому что прямые кавычки, принятые в JSON, на телефоне многие мессанджеры как и Word заменяет на фигурные
"key": "value"
vs “key”: “value”
-
#13.530
на предыдущих страницах все было уже, посмотреть их сложно, вот в чем проблема
тут
СПС
-
#13.531
Конечно:
- B250-FinTech-CF Gigabyte
- CPU G4600 @ 3.60GHz
- Модель диска ATA KINGSTON SA400S3 120GB
- Оперативка 8 гигов.
- Cервeрный блoк питания IBМ DРS-2500ВВ
- Корпус с разделяемыми потоками+ канальный вентилятор 1000 кубов
ASUS Dual Radeon RX 5700 EVO OC, память Micron (6 штук из одной партии)
Оптимизированные тайминги (в данном случае применяю тайминги серии Apple straps bios )
До версии [email protected] все работало стабильно.
При выходе 204 начался непредсказуемый отвал. Может отвалится карта 0, перезагрузка и через 3 минуты карта 3
В час то 10 отвалов. Отваливаются именно карты на Микроне.Были рекомендации (в этой ветке) о занижении разгона, но у меня и так никакого разгона как такового нет.
Решение было в откате на 203 и сразу стабильная работа.
после выхода Вашей каждой новой версии обновляюсь, ловлю массовые отвалы и опять откатываюсь назад.ЗЫ Сорри, но с логами не умею работать. Если нужно будет то выполню нужные Ваши инструкции или предоставлю доступ.
ЗЫ ЗЫ В данной ветке не менее 7 человек писали об аналогичной проблеме.
Посмотреть вложение 235588
Ув. представители @HiveOS
Приняли ли Вы информацию к сведению? Будет ли решение?
Ибо сейчас при откате к 203 версии откатываются и версии майнеров и еще чуть чуть и придется бежать с HiveOS ибо не станет возможно работать с этими картами на вашей системе!!
-
#13.532
еще чуть чуть и придется бежать с HiveOS
Run Forest, run!
-
#13.533
Всем привет, постоянно в надежде что исправят косяк с 5700. Солянка с 5700+3070(не лшр) все что [email protected] и выше идет отвал по 5700. Память самсунг. Если кто победил тыцните.
-
#13.534
Это официальная тема поддержки Hive OS на этом форуме.
Сервис мониторинга и операционная системя для майнинга. Мониторинг, управление, возможность разгона.
Официальный сайт — https://hiveos.farm
Установленные майнеры
- Claymore Dual Ethereum Miner
- Claymore ZCash AMD GPU Miner
- Claymore CryptoNote AMD GPU Miner
- Ethminer
- ccminer (forks available)
- sgminer (forks available)
- Bminer Equihash miner
- Dstm’s ZCash Cuda miner
- EWBF’s CUDA Zcash miner
- Optiminer
- LolMiner-mnx
- XMR Stak AMD Nvidia CPU
- XMR Stak CPU
- XMRig
- cpuminer-opt
- Другие майнеры, если становятся популярными
Поддержка GPU:
- AMD Radeon RX Family (460, 470, 480, 560, 570, 580, …) overclocking supported
- Nvidia GeForce 10×0 Family (1050, 1050ti, 1060, 1070, 1070ti, 1080, 1080ti, P106-090, P106-100, P104-100, P102-100 …) overclocking supported
Поддержка ASIC’ов:
- Antminer S9, D3, L3, A3, …
Поддержка вотчдогов:
- WatchdogInUa
- OpenDev
- Esonics
- Chinese Watchdogs (QinHeng Electronics HL-340)
- SimpleRigResetter SSRv2
Другие фишки:
- Telegram нотификации, оффлайн/онлайн события и сообщения.
- Hashrate Watchdog перезагрузит ферму при падении хешрейта, зависании майнера или драйверов.
- Second Miner, возмоность паралельного запуска второго майнера, к примеру отдельные майнеры для красных и зеленых карт или запуска майнера на CPU.
- WiFi, поддерживается.
- Ставится на флешку от 8Gb или SSD, HDD
- Можно миксовать Nvdia и AMD на одной ферме
- Конфиги сети и фермы доступны из Windows для быстрого запуска
- Запускается на 19 GPU на Asus B250 Mining Expert
- Комплексные операции над ригами (смена майнера, применение профиля кошелька, применение профилей разгона, перезагрузка, выключение, обновление).
- HiveOS API для разработки сторонних приложений.
Официальные ресурсы:
— Канал в Youtube с обучающими видео
— Форум HiveOS
— Группа поддержки в Телеграмм
— Группа поддержки в Facebook
— Канал анонсов в ТелеграммИ для любителей заговоров (исходники клиентской части):
https://github.com/minershive/hiveos-linuxОбратите внимание на версии драйверов в сборках
Драйвера не обновляются по воздуху
http://download.hiveos.farmhive-0.5-45
md5sum d268e946ccb34cd982aa248a7a617a6c hive-0.5-45-20180419.zip
Linux worker 4.13.16-hiveos #1 SMP Tue Apr 17 18:30:28 EEST 2018 x86_64 x86_64 x86_64 GNU/Linux
amdgpu-pro 17.50-511655
nvidia 390.48hive-0.5-32
md5sum 3971faebb116b4639a3edbad245762ee hive-0.5-32-20180228.zip
Linux 4.10.17-hiveos #1 SMP Sun Dec 10 08:48:43 EET 2017 x86_64 x86_64 x86_64 GNU/Linux
amdgpu-pro 17.50-511655
nvidia 390.25hive-0.5-12
md5sum 1d25da6f16a0dc337d98a9c1372ab35a hive-0.5-12-20171211.zip
Linux 4.10.17-hiveos #1 SMP Sun Dec 10 08:48:43 EET 2017 x86_64 x86_64 x86_64 GNU/Linux
amdgpu-pro 17.40-492261
nvidia 387.34hive-0.5-03
md5sum 96c2aa1d104359fcef7a0e83c58e2530 hive-0.5-03-20171029.zip
Linux 4.10.0-37-generic #41~16.04.1-Ubuntu SMP Fri Oct 6 22:42:59 UTC 2017 x86_64 x86_64 x86_64 GNU/Linux
amdgpu-pro 17.40-483984
nvidia 387.12hive-0.4-20
md5sum f129826b0f782ceb1eca7ba6e125d5d7 hive-0.4-20-20171014.zip
Linux 4.11.0-kfd-compute-rocm-rel-1.6-148 #1 SMP Wed Aug 23 12:00:35 CDT 2017 x86_64 x86_64 x86_64 GNU/Linux
amdgpu-pro 16.60-379184
nvidia 384.90Известные нюансы:
— видеокарты семейства AMD Radeon HD79xx, R9 официально не поддерживаются, но работают с определенными ограничениями (нет управления разгоном и вентиляторами);
— видеокарты AMD Radeon RX 550 работают после определенной модификации
— видеокарты AMD Radeon RX Vega series добавлена поддержка с версии 0.5.45 (необходима установка с образа), работают с определенными ограничениями (https://rocm.github.io/hardware.html)
— видеокарты NVidia GTX 9xx работают, возможно необходим небольшой тюнинг
— отображаемое потребление видеокарт для карт NVidia более-менее совпадает с данными ваттметра, для карт AMD значение относительное (потребление ядра) и может существенно отличается от реального значения. Потребление видеокарт NVidia GTX 1050ti не отображается на драйверах серий 387, 390.
Hive говно!
-
#13.535
Сапорт не работает! j,обн6ова 2-3 дня Hive-Говно!
жаль пошли необратимые процессы с вами
-
#13.536
жаль пошли необратимые процессы с вами
побочные последствия Sputnik-V
-
#13.538
значит к деньгам
А вообще напомнило анекдот:
Мужик напился лежит в луже, мимо идет светская дама
Дама переступая лужу :- Мужчина вы пьяны, как так можно напиваться? Вы омерзительно пьяны!
Мужик, прилагая усилия, поднимает голову и видит женские ноги:
— А у тебя ноги кривые!
Дама начинает еще больше возмущаться:
Мужик — У тебя ноги кривые, а я завтра трезвый буду.
-
#13.539
Можно ли как-то в хайве посмотреть напряжение ядра видеочипа карт Nvidia?
-
#13.540
Можно ли как-то в хайве посмотреть напряжение ядра видеочипа карт Nvidia?
Здравствуйте! К сожалению нет, так как мониторинга и управления нет в линуксе для Nvidia. Тут нужно обращаться непосредственно к производителю.