Аналитика в Yandex DataLens в пределах CSV
- Загрузка CSV через Yandex Cloud
- Yandex Object Storage
- Yandex Query
- Yandex Datalens
- Варианты применения
- Простая загрузка через Python
- Файловые менеджеры для Windows и Mac
- Еще больше подключений к Object Storage
- Две таблицы из Google Sheets (Гугл Таблиц) через CSV
- Создание дашборда
- Обновление CSV
- Публичный доступ
- Загрузка CSV через Yandex Cloud
- Публичный доступ к дашборду из Google Sheets
- Автоматизация
Загрузка CSV через Yandex Cloud
На самом деле, это более перспективный способ загрузки таблиц. Неважен источник, если можете получить таблицу или csv, то обновлять его можно уже автоматически. Google Sheets, Яндекс Таблицы, локальные базы данных, базы данных без белого IP, CRM и ETL системы. При этом схема более понятная, чем выгрузка в базы данных Яндекса. На этапе формирования можно склеивать таблицы, вычислять поля, обновлять не всю таблицу, а «дописывать» только новые строки. Плюсом является большой объем бесплатного хранения в Yandex Cloud (100 ГБ), Yandex Query и Yandex Datalens бесплатные. В общем, со средним объемом данных, все будет бесплатно.
Yandex Object Storage
Начинаем с самого начала. Открываем Datalens.
Нажимаем на Все сервисы
.
Находим и выбираем Object Storage
.
Нам предлагают создать наше первое облако. Нажимаем Создать
.
Откроется консоль управления. В левом верхнем углу нажимаем Создать ресурс
, в выпавшем списке выбираем Бакет
.
Бакет — это Логическая сущность, которая помогает организовать хранение объектов. Если проще — это папка.
Откроется страница создания бакета.
Сразу откроется окно создания платежного аккаунта. Заполняем поля.
Вводим данные карты, спишут 11 рублей, подтверждаем кодом от банка.
Все заполнили, получаем грант на 4 тысячи, нажимаем Создать
.
Возвращаемся к созданию бакета. вводим имя бакета. Максимальный размер
ставим Без ограничения
.
Без ограничения, значит, что бакет будет автоматически масштабироваться, т.е. увеличиваться. Выставляя ограничения, мы резервируем место, но нам это не надо.
Доступ на чтение объектов
ставим Публичный
. Нажимаем Создать бакет
.
Баскет готов. Нажимаем на наш бакет.
Перетаскиваем в бакет наш csv, архивированный zip.
Yandex Query
Открываем Все сервисы
.
Находим и нажимаем Yandex Query
.
В левом верхнем углу находим меню, нажимаем Ещё
, в выпавшем меню выбираем Соединения
.
Нажимаем + Создать
.
Настройка соединения. Вписываем любое имя в Имя
. Тип
выбираем Object Storage
. Видимость
Публичная
. Аутентификация бакета
Приватный
. Облако и каталог
выбираем наше. Бакет
выбираем наш. Сервисный аккаунт
будет пустой — нажимаем Create new
.
Откроется новая вкладка с аккаунтами. Нажимаем в правом верхнем углу Создать сервисный аккаунт
.
В поле Имя
вводим любое имя. В Роли в каталоге
выбираем editor
. Там много ролей, проще в поисковой строке набрать. Нажимаем Создать
.
Появится новый сервисный аккаунт и сверху меню, выбрать Создать статический ключ доступа
. В окне выбрать Создать
. Появится Новый ключ
. Скопируйте его на жесткий диск, он потом понадобится.
Возвращаемся на вкладку Yandex Query
. Теперь в селекторе Сервисный аккаунт
появился выбор свежесозданного аккаунта, выбираем его и нажимаем Проверить
. Должно появиться зеленое сообщение Соединение успешно
. Нажать Создать
.
В левом верхнем углу находим меню, нажимаем Ещё
, в выпавшем меню выбираем Привязки
.
Нажимаем + Создать
.
В Параметры соединения
выбираем Object Storage
. В Соединение
выбираем наше созданное соединение.
В Параметры привязки к данным
в поле Имя
вписываем любое имя, лучше такое-же, как и соединение. Область видимости
выбираем Публичная
. В Путь
ставим слэш /
, так как файлы у нас будут лежать в корне бакета. Если будут папка, то соответственно путь от корня бакета. Но проще иметь один бакет чисто под таблицу.
В Сжатие
выбираем gsip
, так как у нас csv сжат gzip. В Формат
выбираем csv_with_names
, то есть таблица с заголовками. Разделитель
выбираем ;
, так как csv записан в таком формате.
Дальше идут колонки, которые нам нужны. Вписываем в Имя
название колонки, в Тип
выбираем тип данных колонки. Чекбокс Обязательно
, значит, что в колонке обязательно должны быть данные, если будет хоть одна пустая ячейка, будет ошибка. Подробнее про типы данных в документации Yandex Cloud.
Будьте внимательны, если в csv формат данных вида
31.11.2022
будет ошибка, дата должна быть вида2022-11-31
. Конвертируйте дату перед отправкой вObject Storage
.
Колонки партиционированния
не заполняем. Нажимаем Предпросмотр
.
В нижней части появится наша таблица. Нажимаем Создать
.
В Привязках нажать эту кнопку.
В выпавшем меню выбрать SELECT
.
В правом окне появится SQL запрос, скопируем его без нижней строчки LIMIT 10;
, он нам понадобится при создании датасета.
Yandex DataLens
Открываем Datalens.
Создать подключение
Выбираем Yandex Query
В Облако и каталог
выбираем наше облако. В поле Сервисный аккаунт
выбираем наш аккаунт. Уровень доступа SQL запросов
ставим в Разрешить подзапросы датасетах и запросы из чартов
. Нажимаем Создать подключение
. Вводим название подключения.
В правом верхнем углу нажимаем Создать датасет
.
Должно автоматически открыться окно Источник с SQL подзапросом.
Вставляем наш SQL запрос и нажимаем Применить
.
Ну вот и все. Мы настроили трансляцию с Object Storage в Datalens.
Варианты применения
Простая загрузка через Python
Задаем идентификаторы, которые получили при регистрации сервисного аккаунта. Задаем имя бакета, в который будем загружать и имя файла, который надо загрузить. Возвращает список файлов, которые уже естьв бакете. На скрипт можно повесить cron или Менеджер задач для периодического выполнения.
import boto3
import gzip
import shutil
import os.path
key_id = 'идентификатор ключа' # Получили при регистрации сервисного аккаунта
access_key = 'секретный ключ' # Получили при регистрации сервисного аккаунта
bucket_name = 'имя бакета'
file_name = 'load.csv' # файл который нужно загрузить
session = boto3.session.Session(
aws_access_key_id = key_id,
aws_secret_access_key = access_key,
)
s3 = session.client(
service_name='s3',
endpoint_url='https://storage.yandexcloud.net'
)
def func_upload(filename, bucket):
with open(filename, 'rb') as f_in:
with gzip.open(filename+'.gz', 'wb') as f_out:
shutil.copyfileobj(f_in, f_out)
s3.upload_file(filename+'.gz', bucket, filename+'.gz')
# Получить список объектов в бакете
for key in s3.list_objects(Bucket=bucket)['Contents']:
print(key['Key'])
def func_upload(file_name, bucket_name)
Файловые менеджеры для Windows и Mac
CyberDuck
WinSCP
Еще больше подключений к Object Storage
Все подключения описаны на странице документации Object Storage.
Наверняка их еще больше, так как используется популярный протокол Amazon S3.
Две таблицы из Google Sheets (Гугл Таблиц) через CSV.
В подключении Datalens
Google Sheets
можно подключить только один лист из Таблиц. Но что делать, если надо две или более таблиц, которые связаны друг с другом по отдельным колонкам. Очевидно, что заполнять одну большую таблицу. Но бывает, что таблицы заполняются автоматически, например CRM, или их ведет другой отдел, или сотрудники, которым «вот так удобно». Или нужен публичный доступ к дашборду. Datalens отключили материализацию и для подключенияGoogle Sheets
публичный доступ недоступен. В общем, будем справляться сами, разработчикам не до нашей песочницы с 500 000 строками таблиц в Google Sheets, мы, если по футбольному, Первая лига. Поймите их правильно, такие объемы для баз данных это ерунда, они работают в основном на подключение к большим базам данных. Но мы как-нибудь потом попробуем с нашими Google Sheets влезть в высшую лигу.
Что делать, работаем через подключение File
то есть CSV. Трудозатратнее, обновление вручную, но больше возможностей.
- можем объединятьджойнить несколько листов из Таблиц, даже из разных документов;
- полученный дашборд можно сделать публичным;
- остается возможность обновления данных вручную.
Создание дашборда
Давайте рассмотрим простой пример работы с Google Sheets через CSV. Есть Таблица с двумя листами.
Первый лист таблицы с основными показателями.
Вторая лист таблицы, в которой нас интересует колонка Стоимость
Как видно, две таблицы объединяют колонки Наименование и Название. Названия разные, но данные в них одинаковые. Главное найти колонки с идентичными данными в двух таблицах и желательно, чтобы во второй таблице эти значения были уникальными. Например, если во второй таблице Карандаш в одной строке будет стоить 20, а в другой строке Карандаш будет стоить 15, будут неверно объединены таблицы, так как программа не смотрит на другие данные. В таких случаях надо сделать уникальные названия, например второй Карандаш переименовать в Карандаш эконом. Но это делать надо до начала экспорта в Datalens.
Продолжаем. Экспортируем каждый лист в формате CSV на свой жесткий диск.
Файл
-> Скачать
-> Формат CSV (.csv)
. В диалоговом окне сохраняем на жесткий диск.
Переходим на Datalens.
Выбираем Создать подключение
Выбираем File
Нажимаем + Загрузить файлы
. В диалоговом окне выбираем файлы, которые мы скачали с Таблиц, можно все сразу выделить и загрузить.
Итак, наши файлы загрузились, выбирая их в левом столбце, в правом можно посмотреть их содержимое (на предпросмотре все строки не загружаются, только часть!). Типы значений в столбцах определились правильно, то есть колонка Дата как дата (пиктограмма календарика), Заказ и Количество как числа (пиктограмма решетки), Наименование как строковое значение (пиктограмма А). Если тип определен неправильно, можно нажать пиктограмму и изменить его. Но в первую очередь это значит, что где-то в данных есть значение другого типа. Например, в столбце Количество, в одной строке вместо 0 внесено буквами ноль. Тогда интерпретатор весь столбец обозначит как строковый. Такие вещи надо править непосредственно в Google Sheets.
Нажимаем на Создать подключение
в правом верхнем углу.
Вводим название нашего подключения. Важно помнить, что одинаковых имен быть не должно. То есть, нельзя назвать Подключение, Датасет, Чарт и Дашборд одним именем, будет всплывать ошибка. Добавляйте префиксы к названию: MyBIproject_connection, MyBIproject-DataSet, mybiproject_chart_gain, etc. Можно выбрать папку, куда все добро сохранять, нажав на значок >
Нажимаем Создать датасет
в правом верхнем углу.
Перетаскиваем наши листы из левой колонки Таблицы
в правое пустое поле.
Получаем сообщение об ошибке Датасет не прошел валидацию
. Это произошло потому, что Datalens не нашел колонок с ОДИНАКОВЫМ названием. Как мы помним, у нас идентичные колонки называются Наименование и Название. Давайте исправим это. Нажимаем на сдвоенный красный кружок в правом поле.
Открывается диалог связей между нашими листами. Нажимаем на Добавить связь
.
Появятся селекторы с выпадающим списком полей в наших листах. Выбираем соответственно Наименование и Название.
Нажимаем на Применить
.
Чудо свершилось! Мы подружили два наших листа. Внизу страницы, в Предпросмотре
, мы видим новую объединенную таблицу. Нажимаем в левом верхнем углу селектор Поля
.
В этой вкладке нужно выбрать агрегацию для числовых типов, то есть как будет представляться наше число. Например, у нас есть колонка Заказы
в которой у нас числа. Но, по сути, заказ — это одна единица, и когда мы хотим получить количество всех заказов, мы их считаем по одному, а не сумму номеров заказов. К тому же номера заказов у нас повторяются (смотрите исходные таблицы). Поэтому надо подсказать Datalens, что это поле у нас уникальное, поэтому выбираем в поле Агрегация
напротив имени Заказ выбираем Количество уникальных
. Для имен Количество и Стоимость выбираем агрегацию Сумма
. Нажимаем в правом верхнем углу Сохранить
. Вводим название нашего датасета.
В принципе, мы уже сделали все, что нужно. Дальше строим на основе этого Датасета строим чарты и дашборды. Но давайте проявим немного терпения и дойдем до конца, ведь нам надо еще обновлять данные и опубликовать созданный дашборд. Прошу прошения у тех, кто это уже все знает, за подробности, но кто-то первый раз будет это делать. Нажимаем в правом верхнем углу Создать чарт
.
Делаем самый простой чарт. Перетаскиваем из левого поля измерение Дата
в поле -> Х
. Перетаскиваем из левого поля измерение Наименование
в поле Цвета
.
Пока столбцы у нас пустые, надо посчитать выручку по дням. Для этого создадим новый показатель Выручка
. В левом поле возле поиска нажимаем значок +
и выбираем Поле
.
Слева у нас все поля, нажимаем на Количество, поле автоматически вставится в формулу
Слева у нас все поля, нажимаем на Количество
, поле автоматически вставится в формулу. Вводим с клавиатуры символ *
и нажимаем на поле Стоимость
. Мы получили простую формулу где перемножаем количество товара на стоимость единицы товара. В правом верхнем поле Наименование поля
вводим название Выручка
. Нажимаем кнопку Создать
.
Перетаскиваем из левого поля наш новый показатель Выручка
в поле Y
. Теперь у нас появились столбцы, с выручкой по дням и разбивкой по Наименованию. Нажимаем в правом верхнем углу Сохранить
.
Вводим название чарта. В самом левом столбце с пиктограммами находим Дашборд и нажимаем на него.
В правом верхнем углу выбираем Создать дашборд
. Вводим название дашборда.
В правом верхнем углу выбираем выпадающий селектор Добавить
в нем выбираем Чарт
.
Нажимаем Чарт
Выбрать
и в всплывшем окне выбираем чарт, который мы только что создали. В левом нижнем углу нажимаем Добавить
.
Нажимаем в правом верхнем углу Сохранить
.
Все мы создали свой дашборд. Теперь изучим его. У нас есть выручка по дням по наименованиям. Но если посмотреть на нашу первую таблицу в Google Sheets, мы увидим, что
02.11.2022 был заказ на 100 линеек, но в дашборде линеек нет. Это произошло потому, что у нас во второй таблице в Google Sheets нет Наименования Линейка
, поэтому, при слиянии двух таблиц, у линейки стоимости нет, соответственно, при вычислении выручка будет 0. Давайте исправим это и проведем обновление нашего дашборда.
Обновление CSV
Заходим на Google Sheets в наш документ на второй лист. Добавляем строку со стоимостью для Линейка
.
Переходим на первый лист. Добавляем строку 03.11.2022 128 Карандаш 300
. Экспортируем каждый лист в формате CSV на свой жесткий диск.
Файл
-> Скачать
-> Формат CSV (.csv)
. В диалоговом окне сохраняем на жесткий диск. На жестком диске уже есть эти листы, поэтому выбираем их и заменяем.
Возвращаемся на Datalens. В самом левом столбце с пиктограммами находим Подключения
и нажимаем на него. В всплывшем окне выбираем наше подключение.
В левом столбце выбираем первый лист и нажимаем на ...
возле него. В менюшке выбираем Заменить
. В диалоговом окне выбираем csv файл первого листа, который мы только что пересохранили с Google Sheets.
Файл обновился, и мы видим, что в левом столбце появились группы Новые файлы и Загруженные ранее. Выбираем второй файл и повторяем операцию обновления.
Все файлы обновлены, в предпросмотре справа мы видим, что строк 03.11.2022
появилась. В самом левом столбце с пиктограммами находим Дашборды
и нажимаем на него (если закрыли вкладку с созданным дашбордом). Выбираем наш дашборд. Если вкладку не закрывали, просто обновите окно браузера (F5).
Мы видим, что все, что мы внесли в документе в Google Sheets, теперь у нас в дашборде. Появилась линейка, которая раньше не считалась, и заказы от 03.11.2022. По сути, создав дашборд на csv один раз, потом проводим только обновление файлов в подключении.
Публичный доступ
В самом начале в Datalens была такая фича — материализация. Это когда загруженные данные записывались на внутренние сервера Datalens, то есть делался слепок с данных, и появлялась возможность большого количества обращений к дашборду, то есть не происходили постоянно новые запросы SQL, которые нагружали бы бесплатный Datalens. Это как если товар в магазине продавался бы не с полок, а со склада. То есть продавец за каждым товаром бегал бы на склад. Пока пользователей было немного, серверы наверное вытягивали. Сейчас популярность и нагрузка растет, разработчики задумались над этим и пока экспериментируют.
Для дашбордов, созданных на основе CSV файлов доступен публичный доступ. Допустим, мы собрали информацию/статистику, сделали визуализацию ее на дашборде и хотим поделиться со всеми. Или мы создали дашборд для презентации нашего продукта/бизнеса, мы можем оправить ее любому человеку, и он без установки каких-либо программ может ее просмотреть. И для визуальной презентации нужен только браузер с подключенным интернетом. Удобно же.
Для этого достаточно включить Публичный доступ
. Открываем наш дашборд.
В левом верхнем углу после символа звездочки нажимаем на ...
. В выпавшем меню выбираем Публичный доступ
.
В открывшемся окне, слева от надписи Доступен по ссылке
, переключаем селектор. Во всплывшем окне нажимаем Продолжить
.
Дашборд и все связанные объекты стали публичными. Справа от селектора появилась Публичная ссылка. Копируем ее, нажимаем Применить
.
Открываем другой браузер, где не входили под учетной записью Яндекса, вставляем. Все работает.
Публичный доступ к дашборду из Google Sheets
Публичный доступ к дашборду из Google Sheets в настоящее время можно реализовать только через CSV. Реализуем все по инструкции.
Давайте будем честны. В Google Sheets таблице будет максимум миллион строк (при 5 колонках), объем — не более 100 Мб. Ежедневное добавление строк в Google Sheets не такое существенное, чтобы нельзя было раз в сутки обновить вручную. Если бы было по другому, давно бы перешли на нормальную базу данных. По аналогии с магазином, это все равно, что каждый день возить только длинномером товары в маленький сельский магазин.
Автоматизация
Что в этом процессе можно автоматизировать?
- получение csv файлов из Google Sheets без открытия самих таблиц;
- объединение двух и более таблиц в csv по ключевым колонкам;
- склеивание в один файл csv нескольких одинаковых таблиц (когда кончается лимит на строки в одном документе, заводят следующий и таблица продолжается).
Всем привет!
Взял за основу намеки на решение в одном из ответов к вопросу об этой же задаче, так как мое решение было очень похожим по сути.
Помогите понять, на каком датасете программа отработает не правильно, что бы я мог сам найти ошибку? Я сам напридумывал датасетов, но везде, вроде как, работает корректно.
А вообще, если команда JavaRush это прочтет, то у меня есть пожелание — если программа не проходит валидацию, показывайте хотя бы на каком датасете она не проходит. На ошибке легче учиться, если ты видишь в чем ты ошибаешься
package com.javarush.task.task19.task1916;
import javax.sound.sampled.Line;
import java.io.BufferedReader;
import java.io.FileReader;
import java.io.InputStreamReader;
import java.util.ArrayList;
import java.util.HashSet;
import java.util.List;
/*
Отслеживаем изменения
*/
public class Solution {
public static List<LineItem> lines = new ArrayList<LineItem>();
public static void main(String[] args) throws Exception{
BufferedReader reader = new BufferedReader(new InputStreamReader(System.in));
BufferedReader fileBufferedReader1 = new BufferedReader(new FileReader(reader.readLine()));
BufferedReader fileBufferedReader2 = new BufferedReader(new FileReader(reader.readLine()));
reader.close();
ArrayList<LineItem> lines = new ArrayList<LineItem>();
ArrayList<String> file1Lines = new ArrayList<>();
ArrayList<String> file2Lines = new ArrayList<>();
//HashSet<String> mergedFiles = new HashSet<>();
while (true){
String line = fileBufferedReader1.readLine();
if (line == null){
break;
}
file1Lines.add(line);
//mergedFiles.add(line);
}
while (true){
String line = fileBufferedReader2.readLine();
if (line == null){
break;
}
file2Lines.add(line);
//mergedFiles.add(line);
}
fileBufferedReader1.close();
fileBufferedReader2.close();
for (int i = 0; i < file1Lines.size() && i < file2Lines.size(); i++){
try{
if (file1Lines.get(i).equals(file2Lines.get(i))){
lines.add(new LineItem(Type.SAME, file2Lines.get(i)));
file1Lines.remove(i);
file2Lines.remove(i);
i—;
}
else if (file1Lines.get(i + 1).equals(file2Lines.get(i))){
lines.add(new LineItem(Type.REMOVED, file1Lines.get(i)));
file1Lines.remove(i);
i—;
}
else if (file1Lines.get(i).equals(file2Lines.get(i + 1))){
lines.add(new LineItem(Type.ADDED, file2Lines.get(i)));
file2Lines.remove(i);
i—;
}
}catch (Exception e){}
}
while (!file1Lines.isEmpty()){
lines.add(new LineItem(Type.REMOVED, file1Lines.get(0)));
file1Lines.remove(0);
}
while (!file2Lines.isEmpty()){
lines.add(new LineItem(Type.ADDED, file2Lines.get(0)));
file2Lines.remove(0);
}
// for (LineItem line: lines){
// System.out.println(line.type + » » + line.line);
// }
}
public static enum Type {
ADDED, //добавлена новая строка
REMOVED, //удалена строка
SAME //без изменений
}
public static class LineItem {
public Type type;
public String line;
public LineItem(Type type, String line) {
this.type = type;
this.line = line;
}
}
}
ссылка на объект не установлена на экземпляр объекта в наборе данных
в первый раз, когда я вызываю функцию, я получаю только первую таблицу, заполненную данными, а другая будет выглядеть так
и ошибка в визуализаторе данных похожа на
Кто-нибудь может сказать мне, почему я это вижу? Но во второй раз, когда я обновляю свою страницу aspx, я получаю все таблицы с правильными данными.
Новое редактирование
Привет всем, спасибо за быстрый ответ. но я не получаю никаких ошибок в улове. Набор данных успешно заполнен полностью, даже данные первой таблицы я получаю правильно, но остальные 2 таблицы я нахожу это исключение не с кодом.
Последнее обновление
Также я обнаружил в другом тесте, что визуализатор набора данных не показывает то, что содержит данные. Он содержит записи/таблицы, но по-прежнему показывает указанную выше ошибку. Может быть из-за какой-то проблемы
Вы проверяете, не является ли возвращаемое значение нулевым? В вашей функции может быть какое-то исключение. Я бы переделал пойманную часть в
или, что еще лучше, я бы сделал какое-то событие Error, которое показывало бы какое-то окно сообщений с ошибкой.
Я предполагаю, что это как-то связано с этим:
Это означает, что если что — то пойдет не так , вы проигнорируете проблему (даже не зарегистрируете ее) и просто вернете null. Все, что пытается использовать возвращаемое значение без проверки на недействительность, приведет к показанному вами исключению.
У вас никогда не должно быть такого общего обработчика «поймать все и игнорировать». Если вы действительно хотите перехватывать все исключения (что может быть разумно в корне стека вызовов), то вы всегда должны регистрировать исключение — и в этот момент вам не следует пытаться выполнять какую-либо дополнительную работу.
В этом случае вы, вероятно, должны иметь обработчик исключений выше , но не перехватывать исключение здесь вообще — пусть оно всплывает в стеке, но обрабатывает исключение на более высоком уровне, прерывая текущее действие пользователя. Делать вид, что ничего не пошло не так, но давать возвращаемое значение, которое явно не может быть обработано в данный момент, не лучшая идея.
Я бы также призвал вас не возвращать пустое значение DataSet — я бы сказал, что, вероятно, просто неуместно иметь здесь какую-либо «обработку» ошибок, поскольку вы действительно не знаете, как с этим справиться.
Всё ещё ищете ответ? Посмотрите другие вопросы с метками c# или задайте свой вопрос.
Site design / logo © 2022 Stack Exchange Inc; user contributions licensed under cc by-sa. rev 2022.6.13.42356
Нажимая «Принять все файлы cookie», вы соглашаетесь, что Stack Exchange может хранить файлы cookie на вашем устройстве и раскрывать информацию в соответствии с нашей Политикой в отношении файлов cookie.
Ошибка при заполнении Dataset
Вот такая проблема: при выполнении программа выдает ошибку «Объект ‘expr1002’ не найден ядром базы данных Microsoft Jet. Проверьте существование объекта и правильность имени и пути.»
Ошибка возникает при заполнении DataSet через DataAdapter, причем независимо от того заполняется ли через SqlDataAdapter, OleDbDataAdapter или DbDataAdapter.
Сообщение вылазит при работе с любой бд.
Dim strConnect As String = «Provider=Microsoft.Jet.OLEDB.4.0; DATA SOURCE=D:TEMPBD.MDB»
Dim objConnection1 As New OleDb.OleDbConnection
objConnection1.ConnectionString = strConnect
objConnection1.Open()
Dim ds As New DataSet
Dim dc As New OleDb.OleDbCommand
dc.Connection = objConnection1
dc.CommandText = «select * from tablelichdan»
Dim da As New OleDb.OleDbDataAdapter
da.SelectCommand = dc
da.Fill(ds) ‘ Ошибка возникает здекь
Dg1.DataSource = ds.Tables(0)
objConnection1.Close()
Этот же код на другой машине прекрасно работает.
Что делать?
Electro
- 14.06.2007
- #2
olplis
- 18.06.2007
- #3
Через ServerExplorer такая же бадяга вылезает. А если действительно провайда Microsoft.Jet.OLEDB.4.0 у меня нет, то где он лежит и можно ли его взять на другой машине, где все работает.
Electro
- 18.06.2007
- #4
Пробей реестр у меня так:
Windows Registry Editor Version 5.00
[HKEY_LOCAL_MACHINESOFTWAREMicrosoftJet4.0EnginesJet 4.0]
«PageTimeout»=dword:00001388
«LockRetry»=dword:00000014
«MaxBufferSize»=dword:00000000
«Threads»=dword:00000003
«ExclusiveAsyncDelay»=dword:000007d0
«SharedAsyncDelay»=dword:00000032
«FlushTransactionTimeout»=dword:000001f4
«MaxLocksPerFile»=dword:0000251c
«LockDelay»=dword:00000064
«RecycleLVs»=dword:00000000
«PagesLockedToTableLock»=dword:00000000
«UserCommitSync»=»yes»
«ImplicitCommitSync»=»no»
Я конечно могу ошибатся, но проинстал-ть(переинст-ть) MDAC 2.8 не повредило бы делу
Просмотров 1.9к. Опубликовано 19.12.2022
Обновлено 19.12.2022
Каждый сайт, который создает компания, должен отвечать принятым стандартам. В первую очередь затем, чтобы он попадал в поисковую выдачу и был удобен для пользователей. Если код страниц содержит ошибки, неточности, он становится “невалидным”, то есть не соответствующим требованиям. В результате интернет-ресурс не увидят пользователи или информация на нем будет отображаться некорректно.
В этой статье рассмотрим, что такое валидность, какие могут быть ошибки в HTML-разметке и как их устранить.
Содержание
- Что такое HTML-ошибка валидации и зачем она нужна
- Чем опасны ошибки в разметке
- Как проверить ошибки валидации
- Предупреждения
- Ошибки
- Пример прохождения валидации для страницы сайта
- Как исправить ошибку валидации
- Плагины для браузеров, которые помогут найти ошибки в коде
- Коротко о главном
Что такое HTML-ошибка валидации и зачем она нужна
Под понятием “валидация” подразумевается процесс онлайн-проверки HTML-кода страницы на соответствие стандартам w3c. Эти стандарты были разработаны Организацией всемирной паутины и стандартов качества разметки. Сама организация продвигает идею унификации сайтов по HTML-коду — чтобы каждому пользователю, вне зависимости от браузера или устройства, было удобно использовать ресурс.
Если код отвечает стандартам, то его называют валидным. Браузеры могут его прочитать, загрузить страницы, а поисковые системы легко находят страницу по соответствующему запросу.
Чем опасны ошибки в разметке
Ошибки валидации могут разными — видимыми для глаза простого пользователя или такими, которые можно засечь только с помощью специальных программ. В первом случае кроме технических проблем, ошибки в разметке приводят к негативному пользовательскому опыту.
К наиболее распространённым последствиям ошибок в коде HTML-разметки также относят сбои в нормальной работе сайта и помехи в продвижении ресурса в поисковых системах.
Рассмотрим несколько примеров, как ошибки могут проявляться при работе:
- Медленно подгружается страница
Согласно исследованию Unbounce, более четверти пользователей покидают страницу, если её загрузка занимает более 3 секунд, ещё треть уходит после 6 секунд;
- Не видна часть текстовых, фото и видео-блоков
Эта проблема делает контент для пользователей неинформативным, поэтому они в большинстве случаев уходят со страницы, не досмотрев её до конца;
- Страница может остаться не проиндексированной
Если поисковый робот распознает недочёт в разметке, он может пропустить страницу и прервать её размещение в поисковых системах;
- Разное отображение страниц на разных устройствах
Например, на компьютере или ноутбуке страница будет выглядеть хорошо, а на мобильных гаджетах половина кнопок и изображений будет попросту не видна.
Из-за этих ошибок пользователь не сможет нормально работать с ресурсом. Единственное решение для него — закрыть вкладку и найти нужную информацию на другом сайте. Так количество посетителей сайта постепенно уменьшается, он перестает попадать в поисковую выдачу — в результате ресурс становится бесполезным и пропадает в пучине Интернета.
Как проверить ошибки валидации
Владельцы ресурсов используют 2 способа онлайн-проверки сайтов на наличие ошибок — технический аудит или использование валидаторов.
Первый случай подходит для серьёзных проблем и масштабных сайтов. Валидаторами же пользуются ежедневно. Наиболее популярный — сервис The W3C Markup Validation Service. Он сканирует сайт и сравнивает код на соответствие стандартам W3C. Валидатор выдаёт 2 типа несоответствий разметки стандартам W3C: предупреждения и ошибки.
Давайте рассмотрим каждый из типов чуть подробнее.
Предупреждения
Предупреждения отмечают незначительные проблемы, которые не влияют на работу ресурса. Они появляются из-за расхождений написания разметки со стандартами W3C.
Тем не менее, предупреждения всё равно нужно устранять, так как из-за них сайт может работать медленнее — например, по сравнению с конкурентами с такими же сайтами.
Примером предупреждения может быть указание на отсутствие тега alt у изображения.
Ошибки
Ошибки — это те проблемы, которые требуют обязательного устранения.
Они представляют угрозу для корректной работы сайта: например, из-за них могут скрываться разные блоки — текстовые, фото, видео. А в некоторых более запущенных случаях содержимое страницы может вовсе не отображаться, и сам ресурс не будет загружаться. Поэтому после проверки уделять внимание ошибкам с красными отметками нужно в первую очередь.
Распространённым примером ошибки может быть отсутствие тега <!DOCTYPE html> в начале страницы, который помогает информации преобразоваться в разметку.
Пример прохождения валидации для страницы сайта
Рассмотрим процесс валидации на примере сайта avavax.ru, который создали на WordPress.
В результате проверки валидатор выдал 17 замечаний. После анализа отчета их можно свести к 3 основным:
- атрибут ‘text/javascript’ не требуется при подключении скрипта;
- атрибут ‘text/css’ не требуется при подключении стиля;
- у одного из элементов section нет внутри заголовка h1-h6.
Первое и второе замечания генерирует сам движок WordPress, поэтому разработчикам не нужно их убирать. Третье же замечание предполагает, что каждый блок текста должен иметь заголовок, даже если это не всегда необходимо или видно для читателя.
Решить проблемы с предупреждениями для стилей и скриптов можно через добавление кода в файл темы function.php.
Для этого на хук wp_loaded нужно повесить функцию output_buffer_start(), которая загрузит весь генерируемый код html в буфер. При выводе в буфер вызывается функция output_callback($tag), которая просматривает все теги, находит нежелательные атрибуты с помощью регулярных выражений и заменяет их пробелами. Затем на хук ‘shutdown вешается функция output_buffer_end(), которая возвращает обработанное содержимое буфера.
Для исправления семантики на сайте нужно использовать заголовки. Валидатор выдаёт предупреждение на секцию about, которая содержит фото и краткий текст. Валидатор требует, чтобы в каждой секции был заголовок. Для исправления предупреждения нужно добавить заголовок, но сделать это так, чтобы его не было видно пользователям:
- Добавить заголовок в код: <h3>Обо мне</h3>
Отключить отображение заголовка:
1 #about h3 {
2 display: none;
3 }
После этой части заголовок будет в коде, но валидатор его увидит, а посетитель — нет.
За 3 действия удалось убрать все предупреждения, чтобы качество кода устроило валидатор. Это подтверждается зелёной строкой с надписью: “Document checking completed. No errors or warnings to show”.
Как исправить ошибку валидации
Всё зависит от того, какими техническими знаниями обладает владелец ресурса. Он может сделать это сам, вручную. Делать это нужно постепенно, разбирая ошибку за ошибкой. Но нужно понимать, что если при проверке валидатором было выявлено 100 проблем — все 100 нужно обязательно решить.
Поэтому если навыков и знаний не хватает, лучше привлечь сторонних специалистов для улучшения качества разметки. Это могут быть как фрилансеры, так и профессиональные веб-агентства. При выборе хорошего специалиста, результат будет гарантироваться в любом случае, но лучше, чтобы в договоре оказания услуг будут чётко прописаны цели проведения аудита и гарантии решения проблем с сайтом.
Если объём работ большой, выгоднее заказать профессиональный аудит сайта. С его помощью можно обнаружить разные виды ошибок, улучшить внешний вид и привлекательность интернет-ресурса для поисковых ботов, обычных пользователей, а также повысить скорость загрузки страниц, сделать качественную верстку и избавиться от переспама.
Плагины для браузеров, которые помогут найти ошибки в коде
Для поиска ошибок валидации можно использовать и встроенные в браузеры плагины. Они помогут быстро находить неточности еще на этапе создания кода.
Для каждого браузера есть свой адаптивный плагин:
- HTML Validator для браузера Firefox;
- HTML Validator for Chrome;
- HTML5 Editor для Opera.
С помощью этих инструментов можно не допускать проблем, которые помешают нормальному запуску сайта. Плагины помогут оценить качество внешней и внутренней оптимизации, контента и другие характеристики.
Коротко о главном
Валидация — процесс выявления проблем с HTML-разметкой сайта и ее соответствия стандартам W3C. Это унифицированные правила, с помощью которых сайт может нормально работать и отображаться и для поисковых роботов, и для пользователей.
Проверку ресурса можно проводить тремя путями: валидаторами, специалистам полномасштабного аудита и плагинами в браузере. В большинстве случаев валидатор — самое удобное и быстрое решение для поиска проблем. С его помощью можно выявить 2 типа проблем с разметкой — предупреждения и ошибки.
Работать необходимо сразу с двумя типами ошибок. Даже если предупреждение не приведет к неисправности сайта, оставлять без внимания проблемные блоки нельзя, так как это снизит привлекательность ресурса в глазах пользователя. Ошибки же могут привести к невозможности отображения блоков на сайте, понижению сайта в поисковой выдаче или полному игнорированию ресурса со стороны поискового бота.
Даже у крупных сайтов с миллионной аудиторией, например, Яндекс.Дзен или ВКонтакте, есть проблемы с кодом. Но комплексный подход к решению проблем помогает устранять серьёзные моменты своевременно. Нужно развивать сайт всесторонне, чтобы получить результат от его существования и поддержки. Если самостоятельно разобраться с проблемами не получается, не стоит “доламывать” — лучше обратиться за помощью к профессионалам, например, агентствам по веб-аудиту.