![]() |
Модераторы: Illuminaty |
![]() ![]() ![]() |
|
Се ля ви |
|
|||
![]() Java/SOAрхитектор ![]() ![]() ![]() ![]() Профиль Группа: Модератор Сообщений: 2016 Регистрация: 5.6.2004 Где: place without tim e and space Репутация: 1 Всего: 127 |
Скорблю вместе со многими по XHTML2, но делать нечего - вот, начал потихонечку переволить все свои проекты на XHTML5 + CSS3 + ES5, вставляя хаки для недобраузеров (примерно так, как я описал тут). И сразу же встал вопрос соблюдения валидности при разрабоке.
Спека слишком большая, лучше всего подошёл бы документированный XSD-файл, по которому так же можно было бы какие-то мелкие недопонятые моменты прояснять. Ну или на крайняк - недокументированный. Беглый поиск в сети ничего не дал. И вот вопрос - есть такой зверь в природе? И вообще какие есть варианты валидации HTML5? А то после того, как поработал с XML, как-то коробит, когда пишешь:
-------------------- |
|||
|
||||
rz00007 |
|
|||
![]() Шустрый ![]() Профиль Группа: Участник Сообщений: 105 Регистрация: 11.4.2012 Где: Москва Репутация: нет Всего: 0 |
Поисковикам плевать на валидацию (см. их собственные сайты которые не проходят никакую валидацию). Они стараются смотреть на сайты также как это делают бразуеры (что логично с точки зрения пользователя а не чиновников устанавливающих стандарты). Сами же бразуры достаточно терпимо отнотсятся к мелким нарушениям, не нарушающим разметку.
Если в браузере сайт отображается нормально, то и у поисковиков претензий не будет. Но тем не менее нужно максимально использовать стили, это как минимум улучшит управляемость ресурса. Что касается html5, то в нем значительно (очень) упрощены стандарты валидации, ввиду того что чиновники устанавливающие строгие рамки валидации потерпели полное поражение (еще в 2008 году) и теперь строгие стандарты xhtml нужны только им самим и никому больше. В html5 все упрошено именно ввиду бессмысленности строгого соблюдения стандартов, т.к. во-первых их никто не соблюдает (в первую очередь поисковики), а во вторых современные браузеры замечательно справляются с отображением страниц, имеющих незначительные погрешности. Победила позиция пользователей, и по моему мнению так должно было быть первоначально. --------------------
http://presite.ru - My Work Commerce CSS2 AJAX |
|||
|
||||
Се ля ви |
|
|||
![]() Java/SOAрхитектор ![]() ![]() ![]() ![]() Профиль Группа: Модератор Сообщений: 2016 Регистрация: 5.6.2004 Где: place without tim e and space Репутация: 1 Всего: 127 |
Нашёл что-то отдалённо-похожее на то, что мне нужно тут. В настоящий момент переделываю, исправляя ошибки. Если кто-то найдёт что-то менее глючное - прошу кидать сюда.
![]() В принципе тема вечная, этот холивар, насколько я понимаю, впервые был чётко осознан и обозначен Адамом Босуортом в его докладе на ICSOCO 2004г. - его публиковал в сборнике статей "The Best software Wrighting" Джоел Спольски (книга была переведена на русский язык под названием "Лучшие примеры разработки ПО"). Но у меня на этот счёт несколько иное мнение. На мой взгляд, "поисковикам плевать на валидацию" потому что их мало и у них большие прибыли, за которые они дрожат и трясутся, по-этому они могут себе позволить нанимать толпы программистов для написания и сопровождения работы хитрых поисковых алгоритмов. А XML со своими строгими правилами валидации изначально создавался для того, что бы облегчить создание инструментария для работы с этими данными - в итоге сносный XML-редактор сделать - рас плюнуть. И их реально как грязи - даже локальных, не говоря уже об удалённых (с Web-интерфейсами). А в итоге мы и имеем то, что имеем - как и с операционными системами бесплатными свободными *nix`ами пользуются абсолютное меньшинство, которые погоду не делают, а весь "свободный" мир платит Microsoft`у за их откровенно-дерьмовые продукты, так же и в сети все из себя такие "свободные" пользователи табунами идут на Google или Яandex и смотрят его рекламу. Потому что для того, что бы позволить пользователям быть абсолютно-недисциплинированными, поисковые алгоритмы в сети должны стать настолько невероятно сложны, что фактически ни Вы, ни я за всю жизнь не напишем нормального движка поисковика, который бы хоть отдалённо приблизился к этим товарищам по эффективности. А по сему все разговоры о том, что Internet, видите ли, это такая большая свободная зона, где каждый может распространять любую информацию - бред, поскольку по факту весь интернет крутится вокруг поисковиков и реально интернетом рулят они (ну может ещё facebook и ВКонтакте, но с ними - немного другая песня, хотя и похожая). Сейчас вся инфраструктура интернета чрезвычайно уязвима для властей государств и спецслужб. Только в полной децентрализации Internet`а возможна его реальная свобода, а условием децентрализации неизменно станет упрощение поисковых алгоритмов, а уже это потребует повышения качества разбираемого посредством этих алгоритмов материала... Следующим шагом после XHTML`а 2.0 должен был стать уже полный переход на XML с отображением документов в сети при помощи XSL`а, Web-service`ы на каждом углу... Со временем осмысленная разметка, а не визуальная, должна была стать правилом и на неё все бы со временем перешли, если бы от этого почувствовали реальные бенефиты! Алгоритмы поиска упростились бы донельзя, а их качество многократно бы возросло! Internet заполонили бы распределённые клоны Google`а, которые были бы от него абсолютно независимы и ничуть не хуже... В конце концов поисковые алгоритмы стали бы настолько простыми, что стали бы просто встраиваться в браузеры!.. Весь интернет превратился бы в единую распределённую Базу Данных!!! И никакой политик, никакая спецслужба мира не смогла бы нарушить её работу! И из-за безволия и недисциплинированности всяких безалаберных школьников-лентяев эта идея "семантического WEB`а" была похоронена... Хотя я, честно говоря, в этом сомневаюсь - скорее это отговорка. Никому, кроме нас самих, не нужен действительно свободный интернет, а многим "сильным мира сего" он ещё и опасен - мало ли что?.. Это - большая трагедия, последствия которой мы испытываем и будем испытывать в будущем, тихо стоная под пятой Google`а и Яandex`а, вынужденно лебезя перед ними - оптимизируя свои сайты по их самодурным правилам и боясь впасть к ним в немилость и потерять практически всех своих пользователей... :((( Internet теперь вряд ли сможет стать подлинно-назависимым. Впрочем, если уж так произошло, значит - мы это чем-то заслужили... -------------------- |
|||
|
||||
![]() ![]() ![]() |
1 Пользователей читают эту тему (1 Гостей и 0 Скрытых Пользователей) | |
0 Пользователей: | |
« Предыдущая тема | Вёрстка веб-сайтов | Следующая тема » |
|
По вопросам размещения рекламы пишите на vladimir(sobaka)vingrad.ru
Отказ от ответственности Powered by Invision Power Board(R) 1.3 © 2003 IPS, Inc. |