Модераторы: Illuminaty
  

Поиск:

Ответ в темуСоздание новой темы Создание опроса
> XSD для HTML5 или другие средства валидации? 
V
    Опции темы
Се ля ви
Дата 5.5.2012, 18:34 (ссылка) | (нет голосов) Загрузка ... Загрузка ... Быстрая цитата Цитата


Java/SOAрхитектор
****


Профиль
Группа: Модератор
Сообщений: 2016
Регистрация: 5.6.2004
Где: place without tim e and space

Репутация: 1
Всего: 127



Скорблю вместе со многими по XHTML2, но делать нечего - вот, начал потихонечку переволить все свои проекты на XHTML5 + CSS3 + ES5, вставляя хаки для недобраузеров (примерно так, как я описал тут). И сразу же встал вопрос соблюдения валидности при разрабоке.
Спека слишком большая, лучше всего подошёл бы документированный XSD-файл, по которому так же можно было бы какие-то мелкие недопонятые моменты прояснять. Ну или на крайняк - недокументированный. Беглый поиск в сети ничего не дал. И вот вопрос - есть такой зверь в природе? И вообще какие есть варианты валидации HTML5?
А то после того, как поработал с XML, как-то коробит, когда пишешь:
Код
<!DOCTYPE html>
<html xmlns="http://www.w3.org/1999/xhtml" lang="ru">
</html>
Потом хочется и указать схему для этого неймспейса и с ней по-чаще сверяться...


--------------------
  )
 (
[_])
проф. блог

Кролики думали, что занимаются любовью, а на самом деле их просто разводили...
PM MAIL WWW Skype GTalk   Вверх
rz00007
Дата 5.5.2012, 22:01 (ссылка) | (нет голосов) Загрузка ... Загрузка ... Быстрая цитата Цитата


Шустрый
*


Профиль
Группа: Участник
Сообщений: 105
Регистрация: 11.4.2012
Где: Москва

Репутация: нет
Всего: 0



Поисковикам плевать на валидацию (см. их собственные сайты которые не проходят никакую валидацию). Они стараются смотреть на сайты также как это делают бразуеры (что логично с точки зрения пользователя а не чиновников устанавливающих стандарты). Сами же бразуры достаточно терпимо отнотсятся к мелким нарушениям, не нарушающим разметку.
 Если в браузере сайт отображается нормально, то и у поисковиков претензий не будет.
 Но тем не менее нужно максимально использовать стили, это как минимум улучшит управляемость ресурса.

 Что касается html5, то в нем значительно (очень) упрощены стандарты валидации, ввиду того что чиновники устанавливающие строгие рамки валидации потерпели полное поражение (еще в 2008 году) и теперь строгие стандарты xhtml нужны только им самим и никому больше.
 В html5 все упрошено именно ввиду бессмысленности строгого соблюдения стандартов, т.к. во-первых их никто не соблюдает (в первую очередь поисковики), а во вторых современные браузеры замечательно справляются с отображением страниц, имеющих незначительные погрешности.
 Победила позиция пользователей, и по моему мнению так должно было быть первоначально.
--------------------
http://presite.ru - My Work Commerce CSS2 AJAX
PM MAIL WWW   Вверх
Се ля ви
Дата 6.5.2012, 00:27 (ссылка) | (нет голосов) Загрузка ... Загрузка ... Быстрая цитата Цитата


Java/SOAрхитектор
****


Профиль
Группа: Модератор
Сообщений: 2016
Регистрация: 5.6.2004
Где: place without tim e and space

Репутация: 1
Всего: 127



Нашёл что-то отдалённо-похожее на то, что мне нужно тут. В настоящий момент переделываю, исправляя ошибки. Если кто-то найдёт что-то менее глючное - прошу кидать сюда.

smile
Цитата(rz00007 @  5.5.2012,  22:01 Найти цитируемый пост)
Поисковикам плевать на валидацию (см. их собственные сайты которые не проходят никакую валидацию). Они стараются смотреть на сайты также как это делают бразуеры (что логично с точки зрения пользователя а не чиновников устанавливающих стандарты). Сами же бразуры достаточно терпимо отнотсятся к мелким нарушениям, не нарушающим разметку.

В принципе тема вечная, этот холивар, насколько я понимаю, впервые был чётко осознан и обозначен Адамом Босуортом в его докладе на ICSOCO 2004г. - его публиковал в сборнике статей "The Best software Wrighting" Джоел Спольски (книга была переведена на русский язык под названием "Лучшие примеры разработки ПО").

Но у меня на этот счёт несколько иное мнение. На мой взгляд, "поисковикам плевать на валидацию" потому что их мало и у них большие прибыли, за которые они дрожат и трясутся, по-этому они могут себе позволить нанимать толпы программистов для написания и сопровождения работы хитрых поисковых алгоритмов. А XML со своими строгими правилами валидации изначально создавался для того, что бы облегчить создание инструментария для работы с этими данными - в итоге сносный XML-редактор сделать - рас плюнуть. И их реально как грязи - даже локальных, не говоря уже об удалённых (с Web-интерфейсами).

А в итоге мы и имеем то, что имеем - как и с операционными системами бесплатными свободными *nix`ами пользуются абсолютное меньшинство, которые погоду не делают, а весь "свободный" мир платит Microsoft`у за их откровенно-дерьмовые продукты, так же и в сети все из себя такие "свободные" пользователи табунами идут на Google или Яandex и смотрят его рекламу. Потому что для того, что бы позволить пользователям быть абсолютно-недисциплинированными, поисковые алгоритмы в сети должны стать настолько невероятно сложны, что фактически ни Вы, ни я за всю жизнь не напишем нормального движка поисковика, который бы хоть отдалённо приблизился к этим товарищам по эффективности. А по сему все разговоры о том, что Internet, видите ли, это такая большая свободная зона, где каждый может распространять любую информацию - бред, поскольку по факту весь интернет крутится вокруг поисковиков и реально интернетом рулят они (ну может ещё facebook и ВКонтакте, но с ними - немного другая песня, хотя и похожая). Сейчас вся инфраструктура интернета чрезвычайно уязвима для властей государств и спецслужб. Только в полной децентрализации Internet`а возможна его реальная свобода, а условием децентрализации неизменно станет упрощение поисковых алгоритмов, а уже это потребует повышения качества разбираемого посредством этих алгоритмов материала...

Следующим шагом после XHTML`а 2.0 должен был стать уже полный переход на XML с отображением документов в сети при помощи XSL`а, Web-service`ы на каждом углу... Со временем осмысленная разметка, а не визуальная, должна была стать правилом и на неё все бы со временем перешли, если бы от этого почувствовали реальные бенефиты! Алгоритмы поиска упростились бы донельзя, а их качество многократно бы возросло! Internet заполонили бы распределённые клоны Google`а, которые были бы от него абсолютно независимы и ничуть не хуже... В конце концов поисковые алгоритмы стали бы настолько простыми, что стали бы просто встраиваться в браузеры!.. Весь интернет превратился бы в единую распределённую Базу Данных!!! И никакой политик, никакая спецслужба мира не смогла бы нарушить её работу!

И из-за безволия и недисциплинированности всяких безалаберных школьников-лентяев эта идея "семантического WEB`а" была похоронена... Хотя я, честно говоря, в этом сомневаюсь - скорее это отговорка. Никому, кроме нас самих, не нужен действительно свободный интернет, а многим "сильным мира сего" он ещё и опасен - мало ли что?..

Это - большая трагедия, последствия которой мы испытываем и будем испытывать в будущем, тихо стоная под пятой Google`а и Яandex`а, вынужденно лебезя перед ними - оптимизируя свои сайты по их самодурным правилам и боясь впасть к ним в немилость и потерять практически всех своих пользователей... :(((

Internet теперь вряд ли сможет стать подлинно-назависимым. Впрочем, если уж так произошло, значит - мы это чем-то заслужили...


--------------------
  )
 (
[_])
проф. блог

Кролики думали, что занимаются любовью, а на самом деле их просто разводили...
PM MAIL WWW Skype GTalk   Вверх
  
Ответ в темуСоздание новой темы Создание опроса
0 Пользователей читают эту тему (0 Гостей и 0 Скрытых Пользователей)
0 Пользователей:
« Предыдущая тема | Вёрстка веб-сайтов | Следующая тема »


 




[ Время генерации скрипта: 0.0837 ]   [ Использовано запросов: 21 ]   [ GZIP включён ]


Реклама на сайте     Информационное спонсорство

 
По вопросам размещения рекламы пишите на vladimir(sobaka)vingrad.ru
Отказ от ответственности     Powered by Invision Power Board(R) 1.3 © 2003  IPS, Inc.