О переходах и преображениях. Adam Carnes

О переходах и преображениях. Adam Carnes

08.11.2020 Катрен “Бог выбирает только для Матрицы”

Создатель выбрал из всех только Россию!
Не всю, а лишь, людей – избранных!
Очистить Мир – это их Миссия,
И принять к себе только Званных!

Слова Создателя:
Человек предполагает,
а Я, Бог, располагаю!

Сегодня кризис перешёл все границы!
Коронавирус охватил весь Мир!
В Истории были чумы страницы,
Для людей – это ориентир!

Миллионы больных, как раньше!
Очередной поворот в Судьбе,
Людям должно быть важно,
Укрыться невозможно нигде!

Власть пытается регулировать!
Но от этого только хуже!
Теперь уже люди хотят бастовать,
К Свободе ручеёк только уже!

Надо помнить, что это – Небес Кара!
Человечество заигралось в грехе!
Человек для Духа не тара,
Он должен продержаться на этой волне!

Религии уже не говорят, что помогут!
Помните, религии – это просто люди!
Они Богу «нет» сказать не могут,
Сегодня Преображения прелюдия!

Всё зависит от людей и от каждого!
Люди выбирают для себя Завтра!
Пятая раса идёт к концу – это важно!
Бог говорит, что её ждёт конец


О Конце Света говорили всегда!
Люди – ожидают Конец Света!
Только никто не знает: когда?
Нет информации и в Ветхом Завете!

Люди в прошлом знали об этом!
Повторяю, никто не говорил: когда?
Эпохи говорят только об этом!
Сегодня наступила эта пора!

Наступают иные вибрации!
Разбалансировка грозит Планете!
Не зависит от людей эта акция,
Не зависит Переход и от монеты!

Люди здесь вообще ни при чём!
Случится то, что должно быть!
Планета развернётся другим плечом,
Людям будет это трудно забыть!

К Шестой расе человечество не готово!
Люди заняты, в основном, бытом!
Нет у них на Счастье подковы,
Люди встретят это с забралом открытым!

Создатель выбрал из всех

Не всю, а лишь, людей – избранных!
Очистить Мир – это их Миссия,
И принять к себе только Званных!

Званные люди – это люди-Боги!
Повторяю, они не в религии!
Правящие религии будут в шоке!
Они неправду на людей лили!

Бог выбирает только для Матрицы!
Материя не подойдёт в Новых условиях!
Шестая раса – это другие страницы!
Подтверждающие с Богом подобие!

Люди уйдут – останется Матрица!
Полное подобие с Небом!
России не надо бояться Конца,
Она – Вечна


Она вернётся в Новое положение!
Климат вернётся тоже!
К Богу будет направление движения,
Возвращение людей-Богов уже можно!

https://vk.com/video230161207_456245866?list=706fc7df427f2a4388
https://youtu.be/8sK1SPewyAw

Скопируйте весь текст в рамке и введите его в поле HTML-редактора у себя в ЖЖ, войдя туда через кнопку «Новая запись». И не забудьте внести название в заголовок и нажать на кнопку «Отправить в . «.

12 крылатых выражений, значение которых известно не всем

12 крылатых выражений, значение которых известно не всем

Крылатые выражения помогают точнее выразить мысль, придают речи более эмоциональную окраску. Они позволяют в нескольких коротких, но точных словах выразить больше эмоций и передать личное отношение к происходящему.

АиФ.ru напоминает значения некоторых русских фразеологизмов.

Тихой сапой

Заимствованное во французский язык, слово превратилось во французское «сап» и получило значение «земляных, окопных и подкопных работ», от этого слова также возникло слово «сапёр».

В русском языке слово «сапа» и выражение «тихая сапа» означало работы, которые ведутся с особой осторожностью, без шума, для того, чтобы подобраться к противнику незаметно, в полной тайне.

После широкого распространения выражение получило значение: осторожно, в глубокой тайне и не спеша (например, «Так он тихой сапой всю еду с кухни перетаскает!»).

Ни зги не видно

Согласно одной из версий, слово «зга» произошло от названия части конской упряжи — колечка в верхней части дуги, в которое просовывали повод, чтобы не болтался. Когда ямщику нужно было распрячь лошадь, и было так темно, что этого колечка (зги) не видно было, говорили, что «ни зги не видать».

Согласно другой версии слово «зга» произошло от древнерусского «сътьга» — «дорога, путь, стезя». В таком случае смысл выражения трактуют — «так темно, что не видно даже дороги, тропы». Сегодня выражение «ни зги не видно», «ни зги не видать» означает «ничего не видно», «непроглядная тьма».

Слепой слепца водит, а оба зги не видят. (посл.)

«Над землёй висит тьма: зги не видно. » (Антон Чехов, «Зеркало»)

Танцевать от печки

Выражение «танцевать от печки» впервые появилось в романе русского писателя XIX века Василия Слепцова «Хороший человек». Книга вышла в 1871 году. В ней есть эпизод, когда главный герой Серёжа Теребенев вспоминает, как его учили танцевать, а требуемые от учителя танцев «па» у него никак не получались. В книге есть фраза:

— Эх, какой ты, брат! — с укором говорит отец. — Ну, ступай опять к печке, начинай сначала.

В русском языке это выражение стали употреблять, говоря о людях, у которых привычка действовать по затверженному сценарию заменяет знания. Человек может выполнить определённые действия только «от печки», с самого начала, с самого простого и привычного действия:

«Когда ему (архитектору) заказывали план, то он обыкновенно чертил сначала зал и гостиницу; как в былое время институтки могли танцевать только от печки, так и его художественная идея могла исходить и развиваться только от зала до гостиной». (Антон Чехов, «Моя жизнь»).

Затрапезный вид

Из затрапеза шили одежду в основном бедные люди, которые не могли купить себе что-то лучшее. И вид у таких бедняков был соответствующий. С тех пор, если человек одет неряшливо, о нём и говорят, что у него затрапезный вид:

«Сенных девушек плохо кормили, одевали в затрапез и мало давали спать, изнуряя почти непрерывной работой». (Михаил Салтыков-Щедрин, «Пошехонская старина»)

Точить лясы

Точить лясы означает пустословить, заниматься бесполезной болтовней. Лясы (балясы) — это точеные фигурные столбики перил у крылечка.

Сначала «точить балясы» означало вести изящную, причудливую, витиеватую (как балясы) беседу. Однако умельцев вести такую беседу было немного и со временем выражение стало обозначать пустую болтовню:

«Усядутся, бывало, в кружок, кто на лавке, кто попросту — наземь, каждая с каким-нибудь делом, прялкою, гребнем или коклюшками, и пойдут и пойдут точить лясы да баить про иное, бывалое время». (Дмитрий Григорович, «Деревня»).

Врёт, как сивый мерин

Врать, как сивый мерин, означает говорить небылицы, ничуть не смущаясь. В XIX веке в одном из полков русской армии служил офицер, немец по фамилии фон Сиверс-Меринг. Он любил рассказывать офицерам смешные истории и небылицы. Выражение «врёт, как Сиверс-Меринг», было понятное только его сослуживцам. Однако его стали употреблять по всей России, окончательно забывая об истоках. В народе появились поговорки: «ленив, как сивый мерин», «глуп, как сивый мерин», хотя лошадиная порода к этому никакого отношения не имеет.

Бред сивой кобылы

Также существует версия, что выражение «бред сивой кобылы» пошло от имени одного учёного — Brad Steve Cobile, который как-то написал очень бестолковую статью. Его имя, созвучное со словами «бред сивой кобылы» соотнесли с научной чепухой.

По другой версии, «бред сивой кобылы» — выражение, обозначающие глупое высказывание или мысль; появилось из-за верований славян в то, что сивая лошадь (серая с примесью другого цвета) была самым бестолковым животным. Была примета, согласно которой если приснится сивая кобыла, то наяву сновидца обманут.

Андроны едут

«Андроны едут» означает ерунду, чепуху, вздор, полную бессмыслицу.

В русском языке эту фразу употребляют в ответ тому, кто говорит неправду, некстати важничает и хвастается о себе. В 1840-х на территории почти всей России андрец (андрон) означало повозку, различного рода телеги.

«А ругать тебе мой дом не приходится! — А я разве ругаю. Перекрестись, Петровнушка, андроны едут! (Павел Зарубин, «Тёмные и светлые стороны русской жизни»)

Бирюком жить

Выражение «бирюком жить» означает быть отшельником и замкнутым человеком. В южных регионах России бирюком называют волка. Волк издавна считался опасным для хозяйства хищным зверем. Крестьяне прекрасно изучили его повадки и привычки и нередко вспоминали их, говоря и о человеке. «Ох, и постарел же ты, братушка! — сожалеюще сказала Дуняшка. — Серый какой-то стал, как бирюк». (Михаил Шолохов, «Тихий Дон»)

В бирюльки играть

Бирюльки — различные маленькие предметы домашнего обихода, которые использовались во время старинной игры. Ее смысл заключался в том, чтобы из кучки игрушек вытащить пальцами или специальным крючком одну игрушку за другой, не затронув и не рассыпав остальные. Пошевеливший соседнюю бирюльку передаёт ход следующему игроку. Игра продолжается, пока не разберут всю кучу. К началу ХХ века бирюльки стали одной из самых популярных игр в стране и были очень распространены не только у детей, но и у взрослых.

Читать еще:  От чистого сердца. Рем Сайфульмулюков

В переносном смысле выражение «играть в бирюльки» означает заниматься пустяками, ерундой, оставляя в стороне главное и важное:

«Ведь я пришел в мастерскую работать, а не сидеть сложа руки да играть в бирюльки». (Михаил Новорусский «Записки шлиссельбуржца»)

Пироги с котятами

На Руси никогда не ели кошек, разве что в сильный голод. При длительных осадах городов их жители, истощив все продуктовые запасы, люди использовали в пищу домашних животных, в последнюю очередь шли именно коты и кошки.

Таким образом, это выражение означает катастрофическое положение дел. Обычно поговорку сокращают и говорят: «Вот такие пироги», другими словами «вот такие дела».

Уйти несолоно хлебавши

На Руси в старину соль была дорогим продуктом. Возить её приходилось издалека по бездорожью, налоги на соль были очень высокими. Приходя в гости, хозяин солил пищу сам, своей рукой. Порой, выражая своё почтение, особо дорогим гостям, он даже пересаливал еду, а тем, кто сидел в дальнем конце стола, соли иногда не доставалось вовсе. Отсюда и выражение — «уйти несолоно хлебавши»:

«И чем больше она говорила, и чем искреннее улыбалась, тем сильнее становилась во мне уверенность, что я уеду от неё несолоно хлебавши». (Антон Чехов «Огни»)

«Упустила лисица поживу и пошла прочь несолоно хлебавши». (Алексей Толстой «Лиса и петух»)

Шемякин суд

Выражение «шемякин суд» употребляется, когда хотят подчеркнуть несправедливость какого-либо мнения, суждения или оценки. Шемяка — реальное историческое лицо, галицкий князь Димитрий Шемяка, знаменитый своей жестокостью, коварством и неправедными делами. Прославился неутомимой, упорной борьбой с великим князем Василием Темным, своим двоюродным братом, за московский престол. Сегодня, когда хотят указать на пристрастность, несправедливость какого-нибудь суждения, говорят: «Разве это критика? Шемякин суд какой-то».

Нежное введение в алгоритм оптимизации Адама для глубокого обучения

Дата публикации 2017-07-03

Выбор алгоритма оптимизации для вашей модели глубокого обучения может означать разницу между хорошими результатами в минутах, часах и днях.

Алгоритм оптимизации Адама является расширением стохастического градиентного спуска, который в последнее время получил широкое распространение для приложений глубокого обучения в области компьютерного зрения и обработки естественного языка.

В этом посте вы получите краткое введение в алгоритм оптимизации Адама для использования в глубоком обучении.

Прочитав этот пост, вы узнаете:

  • Что такое алгоритм Адама и некоторые преимущества использования метода для оптимизации ваших моделей.
  • Как работает алгоритм Адама и чем он отличается от связанных методов AdaGrad и RMSProp.
  • Как алгоритм Адама может быть настроен и обычно используются параметры конфигурации.

Что такое алгоритм оптимизации Адама?

Адам — ​​это алгоритм оптимизации, который можно использовать вместо классической процедуры стохастического градиентного спуска для итеративного обновления весов сети на основе обучающих данных.

Адам был представленДидерик Кингмаот OpenAI иДжимми Баиз Университета Торонто в их 2015ICLRбумага (плакат) под названием «Адам: метод стохастической оптимизации«. Я процитирую подробно из их статьи в этом посте, если не указано иное.

Алгоритм называется Адам. Это не аббревиатура и не пишется как «АДАМ».

. имя Адам получено из адаптивной оценки момента.

Представляя алгоритм, авторы перечисляют привлекательные преимущества использования Adam в невыпуклых задачах оптимизации следующим образом:

  • Просто для реализации.
  • Вычислительно эффективен.
  • Маленькие требования к памяти.
  • Инвариант к изменению масштаба градиента по диагонали.
  • Хорошо подходит для задач, которые являются большими с точки зрения данных и / или параметров.
  • Подходит для нестационарных целей.
  • Подходит для задач с очень шумными / или редкими градиентами.
  • Гиперпараметры имеют интуитивно понятную интерпретацию и обычно требуют небольшой настройки.

Хотите лучших результатов с глубоким обучением?

Пройдите мой бесплатный 7-дневный курс по электронной почте сейчас (с примером кода).

Нажмите, чтобы зарегистрироваться, а также получите бесплатную PDF-версию курса Ebook.

Как работает Адам?

Адам отличается от классического стохастического градиентного спуска.

Стохастический градиентный спуск поддерживает единую скорость обучения (называемую альфа) для всех обновлений веса, и скорость обучения не изменяется во время тренировки.

Скорость обучения поддерживается для каждого веса сети (параметра) и отдельно адаптируется по мере развития обучения.

Метод вычисляет индивидуальные адаптивные скорости обучения для различных параметров из оценок первого и второго моментов градиентов.

Авторы описывают Адама как объединение преимуществ двух других расширений стохастического градиентного спуска. В частности:

  • Адаптивный Градиентный Алгоритм(AdaGrad), который поддерживает скорость обучения по параметру, которая улучшает производительность при проблемах с разреженными градиентами (например, проблемы с естественным языком и компьютерным зрением).
  • Среднеквадратичное распространение(RMSProp), который также поддерживает скорости обучения по каждому параметру, которые адаптированы на основе среднего значения последних величин градиентов для веса (например, как быстро оно изменяется). Это означает, что алгоритм хорошо справляется с онлайн и нестационарными задачами (например, с шумом).

Адам осознает преимущества как AdaGrad, так и RMSProp.

Вместо того чтобы адаптировать скорости обучения параметров на основе среднего первого момента (среднего), как в RMSProp, Адам также использует среднее значение вторых моментов градиентов (нецентрированная дисперсия).

В частности, алгоритм вычисляет экспоненциальную скользящую среднюю градиента и квадрата градиента, а параметры бета1 и бета2 управляют скоростью затухания этих скользящих средних.

Начальное значение скользящих средних и значений бета1 и бета2, близких к 1,0 (рекомендуется), приводит к смещению оценок моментов в сторону нуля. Это смещение преодолевается сначала вычислением смещенных оценок, а затем вычислением оценок с поправкой на смещение.

Этот документ вполне читабелен, и я рекомендую вам прочитать его, если вас интересуют конкретные детали реализации.

Адам эффективен

Адам является популярным алгоритмом в области глубокого обучения, потому что он быстро достигает хороших результатов.

Эмпирические результаты показывают, что Адам хорошо работает на практике и выгодно отличается от других методов стохастической оптимизации.

В оригинальной статье Адам был продемонстрирован эмпирически, чтобы показать, что конвергенция соответствует ожиданиям теоретического анализа Адам был применен к алгоритму логистической регрессии в наборах данных распознавания символов MNIST и IMDB, многослойном алгоритме персептрона в наборе данных MNIST и сверточных нейронных сетях в наборе данных распознавания изображений CIFAR-10. Они заключают:

Используя большие модели и наборы данных, мы демонстрируем, что Адам может эффективно решать практические проблемы глубокого обучения.

Себастьян Рудерразработал комплексный обзор современных алгоритмов оптимизации градиентного спуска под названием «Обзор алгоритмов оптимизации градиентного спускаОпубликовано сначала какСообщение блога, то технический отчет в 2016 году.

Статья в основном экскурсия по современным методам. В своем разделе под названием «Какой оптимизатор использовать?«Он рекомендует использовать Адама.

Insofar, RMSprop, Adadelta и Adam — очень похожие алгоритмы, которые хорошо работают в аналогичных обстоятельствах. […] Его коррекция смещения помогает Адаму немного опережать RMSprop к концу оптимизации, поскольку градиенты становятся более разреженными. Насколько Адам может быть лучшим общим выбором.

На практике Адам в настоящее время рекомендуется использовать в качестве алгоритма по умолчанию и часто работает немного лучше, чем RMSProp. Тем не менее, часто стоит попробовать SGD + Nesterov Momentum в качестве альтернативы.

И позже заявил более просто:

Рекомендуется использовать два обновления: SGD + Nesterov Momentum или Adam.

Адам адаптируется к тестам в документах по глубокому обучению.

Знаете ли вы какие-либо другие примеры Адама? Дай мне знать в комментариях.

Параметры конфигурации Адама

  • альфа, Также называется скоростью обучения или размером шага. Пропорция веса обновляется (например, 0,001). Большие значения (например, 0,3) приводят к более быстрому начальному обучению до обновления скорости. Меньшие значения (например, 1.0E-5) замедляют обучение прямо во время тренировки
  • бета1, Показатель экспоненциальной скорости затухания для первого момента (например, 0,9).
  • бета2, Показатель экспоненциального спада для оценок второго момента (например, 0,999). Это значение должно быть близко к 1,0 в случае проблем с разреженным градиентом (например, проблемы НЛП и компьютерного зрения).
  • эпсилон, Это очень небольшое число, чтобы предотвратить любое деление на ноль при реализации (например, 10E-8).

Кроме того, снижение скорости обучения также может быть использовано с Адамом. В статье используется скорость затухания альфа = альфа / sqrt (t), обновляемая каждую эпоху (t) для демонстрации логистической регрессии.

Читать еще:  Поэтический реализм. Consuelo Hernandez

Бумага Адама предлагает:

Хорошие настройки по умолчанию для протестированных проблем машинного обучения: альфа = 0,001, бета1 = 0,9, бета2 = 0,999 и эпсилон = 10−8.

Документация TensorFlow предлагает некоторые настройки epsilon:

Значение по умолчанию 1e-8 для epsilon может быть не совсем подходящим по умолчанию. Например, при обучении начальной сети в сети ImageNet хорошим выбором будет 1,0 или 0,1.

Мы видим, что популярные библиотеки глубокого обучения обычно используют параметры по умолчанию, рекомендованные в статье.

  • TensorFlow: learning_rate = 0,001, бета1 = 0,9, бета2 = 0,999, эпсилон = 1e-08.
    Keras: lr = 0,001, бета_1 = 0,9, бета_2 = 0,999, эпсилон = 1e-08, распад = 0,0.
  • Блоки: скорость обучения = 0,002, бета1 = 0,9, бета2 = 0,999, эпсилон = 1e-08, коэффициент затухания = 1.
  • Лазанья: скорость обучения = 0,001, бета1 = 0,9, бета2 = 0,999, эпсилон = 1e-08
  • Caffe: стоимость обучения = 0,001, бета1 = 0,9, бета2 = 0,999, эпсилон = 1e-08
  • MxNet: стоимость обучения = 0,001, бета1 = 0,9, бета2 = 0,999, эпсилон = 1e-8
  • факел: стоимость обучения = 0,001, бета1 = 0,9, бета2 = 0,999, эпсилон = 1e-8

Знаете ли вы о каких-либо других стандартных конфигурациях для Адама? Дай мне знать в комментариях.

Дальнейшее чтение

В этом разделе перечислены ресурсы, чтобы узнать больше об алгоритме оптимизации Адама.

Знаете ли вы о других хороших ресурсах об Адаме? Дай мне знать в комментариях.

В этом посте вы обнаружили алгоритм оптимизации Адама для глубокого обучения.

В частности, вы узнали:

  • Adam — это алгоритм оптимизации замены для стохастического градиентного спуска для обучения моделей глубокого обучения
  • Адам объединяет лучшие свойства алгоритмов AdaGrad и RMSProp, чтобы обеспечить алгоритм оптимизации, который может обрабатывать редкие градиенты в шумных задачах.
  • Адама относительно легко настроить, если параметры конфигурации по умолчанию хорошо справляются с большинством задач.

У вас есть вопросы?
Задайте свои вопросы в комментариях ниже, и я сделаю все возможное, чтобы ответить.

О переходах и преображениях. Adam Carnes

Сновидец. Призови сокола

CALL DOWN THE HAWK

Copyright © 2019 by Maggie Stiefvater All rights reserved Published by arrangement with Scholastic Inc., 557 Broadway, New York, NY 10012, USA

Cover art by Christopher Stengel

© 2019 by Maggie Stiefvater All rights reserved Published by arrangement with Scholastic Inc., 557 Broadway, New York, NY 10012, USA Cover art by Christopher Stengel

© Сергеева В.С., перевод на русский язык, 2019

© Издание на русском языке, оформление. ООО «Издательство «Эксмо», 2020

Если грезить чуть-чуть – опасно, то лекарство от этого – грезить не меньше, а больше, грезить постоянно.

Вы уверены, что пол не может также быть и потолком?

Это будет история о братьях Линч.

Их было трое, и если один вам не нравился, всегда имело смысл попытать счастья с другим, поскольку тот Линч, который казался окружающим слишком кислым или слишком сладким, мог прийтись как раз кому-то по вкусу. Братья Линч, сироты Линч. Всех их создали сны, так или иначе. И все до одного, они были чертовски красивы.

Они заботились друг о друге. Их мать, Аврора, умерла так, как иногда умирают сны, жестоко, безвинно, неожиданно. Их отца, Ниалла, убили – или прикончили – в зависимости от того, в какой мере вы считали его человеком. Жили ли на свете и другие Линчи? Маловероятно. Линчи, как показала практика, очень хорошо умели умирать.

Сон – не самая безопасная вещь для того, чтобы строить на ней жизнь.

Поскольку братья Линч были в опасности с самого начала, они научились разным способам минимизировать угрозу. Диклан, старший, обрел безопасность, став как можно более скучным. У него это хорошо получалось. Везде – в школе, вне ее, даже на свиданиях – он неизбежно выбирал самый скучный вариант. У Диклана к этому был настоящий талант; некоторые оттенки скуки намекают, что их носитель в глубине души на самом-то деле человек, полный прихотей и нюансов, однако Диклан постарался развить такую форму, которая давала понять, что в глубине души он еще скучнее. Диклан не был невидимкой – у невидимок свое обаяние, своя тайна. Он был просто скучным. Теоретически он учился в колледже на факультете управления, и в двадцать один год у него была впереди вся жизнь, но мало кто это помнил. Диклан вообще не врезался в память.

Мэтью, младший, наслаждался безопасностью, будучи необыкновенно добрым. Он отличался приятным чувством юмора, покладистостью, деликатностью. Ему всё нравилось, на полном серьезе. Он смеялся шуткам. Выражался, как мальчик с поздравительной открытки. Он даже выглядел добрым, превратившись из золотоволосого ангелочка в золотоволосого семнадцатилетнего Адониса. Его конфетная, щенячья доброта казалась бы невыносимой, если бы Мэтью не был так неопрятен за едой, ленив в учебе и не слишком умен. Все хотели обнять Мэтью Линча, а он охотно им позволял.

Ронан, средний брат, отстаивал свою безопасность, прибегая к устрашению. Как и остальные братья Линч, он регулярно ходил в церковь, хотя большинство людей полагали, что играет он за другую команду. Ронан носил черное, как на похоронах, и держал ворона в качестве домашней зверюшки. Он брился почти наголо, и на спине у него красовалась татуировка, полная когтей и зубов. Лицо у среднего Линча было кислое, и говорил он мало. Слова, которые он таки расчехлял, превращались в кинжалы – сверкающие, острые, – и мало кому хотелось ощутить их остроту. Еще у Ронана были синие глаза. Обычно люди полагают, что это красиво, но только не в случае Ронана. Его глаза не наводили на мысль о васильках, небе, младенчестве, индиго, лазури. Они были цвета айсберга, бури, обморожения, внезапной смерти. Все в нем давало понять, что он, возможно, сейчас сопрет ваш бумажник или ударит ребенка головой о камень. Ронан гордился фамильным именем, и оно ему шло. Губы у него всегда были сложены так, как будто только что его произнесли.

У братьев Линч было много тайн.

Диклан коллекционировал особые фразочки, которые не позволял себе употреблять публично, а еще обладал необыкновенной ослепительной улыбкой, которую никто никогда не видел. У Мэтью было поддельное свидетельство о рождении – и не было отпечатков пальцев. Иногда, задумавшись, он брел по абсолютно прямой линии. К чему он устремлялся? Или от чего уходил? Не знал даже он сам.

Секрет Ронана был самым опасным. Как и многие важные секреты, он передавался в семье – в данном случае от отца к сыну. В нем крылось хорошее и плохое. Хорошее заключалось в том, что иногда, когда Ронан засыпал и видел сон, он просыпался с этим сном. Плохое заключалось в том, что иногда, когда Ронан засыпал и видел сон, он просыпался с этим сном. Чудовища и машины, погода и желания, страхи и леса.

Сон – не самая безопасная вещь для того, чтобы строить на ней свою жизнь.

Оставшись без родителей, Линчи ушли в тень. Диклан перестал торговать снами и отправился в колледж ради наискучнейшего диплома по политическим наукам. Ронан по мере сил ограничивал свои кошмары семейной фермой в глуши штата Вирджиния. А Мэтью… ну, Мэтью должен был только следить, чтобы случайно не забрести слишком далеко.

Диклан становился всё скучнее, а Ронан всё сильнее скучал. Мэтью старался, чтобы ноги не занесли его в такое место, которого он бы не понял.

Они все хотели большего.

Одного из них в конце концов ждал прорыв. Ниалл был бешеным мечтателем из Белфаста, которому огонь поджаривал пятки, а Аврора – золотым сном, в чьих глазах отражалось безбрежное небо. Их дети были созданы для хаоса.

Стоял морозный октябрь, дикий октябрь, беспокойное время, которое пробирается под кожу и трепещет в крови. Прошло два месяца с начала осеннего семестра. Деревья жадно вытягивали хрупкие ветви. Умирающие листья были игривы. Зима завывала за дверью по ночам, но огонь в камине отдалял ее еще на несколько часов.

Что-то пришло в движение в этом октябре, что-то потягивалось, расправляло лапы, пыхтело, но в основном пока оставалось незримым. Впоследствии оно должно было обрести имя, но пока что просто будоражило всё необычное, к чему прикасалось, и братья Линч не были исключением.

Читать еще:  Новая Камасутра (Kama Sutra). Malika Favre

Диклан не выдержал первым.

В то время как младший брат сидел в школе, а средний симулировал болезнь на ферме, Диклан открыл шкаф в спальне и достал листок бумаги с телефонным номером. При одном взгляде на него сердце у Диклана забилось быстрее. Вместо того чтобы уничтожить этот клочок, он позвонил.

– Линч? – спросил голос на другом конце.

– Да, – напрямик ответил тот. – Мне нужен ключ.

И положил трубку.

Диклан никому не сказал об этом звонке, даже братьям. Что такое еще один крохотный секрет, думал он, когда жизнь и так ими полна.

Скука и тайны – взрывчатое сочетание.

Что-то должно было сгореть.

Все создания начали засыпать.

Драматичней всего вышло у кошки. Это было красивое животное – для того, кто любит кошек, – с изящной мордочкой и длинной пушистой шерстью, при взгляде на которую казалось, что сейчас она растает и превратится в жидкий сахар. Она была трехцветная – и при нормальных обстоятельствах никто бы не усомнился в ее половой принадлежности. Такой окрас получают при двух Х-хромосомах. Но, возможно, это правило было неприменимо здесь, в уютном сельском коттедже, о котором почти никто не знал. Здесь правили иные, не научные законы. Эта кошка могла вообще быть не кошкой. Она имела форму кошки, но такую же форму порой имеют и пряники.

Путь к высшей власти склеротику Байдену преградила небольшая чиновница

Поистине фантастическая ситуация сложилась в Соединенных Штатах. Не самый крупный чиновник страны, всего лишь глава Управления общих служб США Эмили Мерфи отказывается признать, что Джо Байден избран новым главой государства. Однако ее голос настолько важен, что весь процесс перехода власти от Трампа к Байдену заморожен. Как такое произошло?

Американские СМИ негодуют. Дональд Трамп и его сторонники не просто отказались признать сфальсифицированную победу Джозефа Байдена на президентских выборах в США, но и почему-то не хотят передавать Байдену власть.

CNN УОС не указ

Действия президента США позиционируются как явное нарушение традиции. Отказ Трампа сделать поздравительный звонок Байдену или выступить с речью о поражении станет первым за 124 года (то есть с момента зарождения традиции «выступлений о поражении) таким отказом.

И речь не просто о нарушении указанной традиции. По словам главы департамента политологии Чикагского университета Уильяма Хоуэлла, «речи о поражении являются подтверждением легитимности выборов». Проигравший кандидат фактически призывает своих сторонников принять его поражение, и это «крайней важно для здоровья нашей демократии», – продолжает эксперт.

Правда, он не уточняет, зачем заботиться о здоровье умершего пациента? Американская демократия умерла после не просто вбросов, а демонстративных вбросов бюллетеней в Висконсине, Пенсильвании, Мичигане и ряде других штатов. Вот Трамп и пытается ее оживить.

И, кстати, пытается не один. Да, еще недавно казалось, что даже значительная часть республиканцев махнула на шансы президента. Как минимум двое сенаторов из числа однопартийцев Трампа признали победу Байдена, а Джордж Буш-младший уже назвал итоги выборов «справедливыми» и Джозефа Байдена –«избранным президентом» (что и неудивительно, учитывая слухи о подтасовке результатов избрания самого Буша-младшего). Однако о законе неожиданно вспомнило руководство Управления общих служб США (УОС)– и вспомнило в очень неприятный для демократов момент.

Дело в том, что согласно Акту о переходе власти от 1963 года, процесс передачи начинается с того момента, как УОС (управляющее федеральными зданиями) признает одного из кандидатов победителем. После этого команда победителя получает доступ к фондам (почти 10 миллионов долларов на транзитные расходы) и документации, а также может отправлять своих представителей в различные ведомства. Команде Байдена нужно заключать контракты с четырьмя тысячами сотрудников (1200 из которых должны еще потом пройти одобрение в Сенате), а также готовить их к работе на будущих местах – а на все это нужны деньги и доступ.

Однако глава Управления общих служб США Эмили Мерфи отказывается признать Джо Байдена победителем президентских выборов – по ее мнению, результат еще не определен. И это большая проблема для Байдена. Если деньги на работу штаба они найдут у частных спонсоров (как нашел Джордж Буш-младший в 2000 году после того, как его победа оспаривалась в суде), то вот доступ к документации и «десантников» в федеральные учреждения они никак без вердикта УСС не получат. Значит, у них не будет возможности получать секретную информацию и плавно въезжать в повестку управления страной.

Неудивительно, что на Мерфи сразу же ополчился американский истеблишмент. Либералы требуют от нее незамедлительно начать процедуры – ведь CNN же признала победу Байдена, так что почему Эмили Мерфи не доверяет мнению уважаемого издания?

Кое-кто уверяет, что Мерфи должна будет признать итоги выборов после решения Коллегии выборщиков – однако, напомним, сами выборщики (которые на голосовании официально избирают президента США) соберутся лишь 14 декабря. То есть примерно через месяц. А значит, все это время Эмили Мерфи имеет полное право не верить CNN и прочим американским СМИ, уверяющим, что Байден избран президентом США.

Хатхи (Слон – символ республиканской партии) еще не сдох

И поверить она должна лишь в том случае, если Трамп сам признаст поражение. Поэтому демократы обратились и к самой администрации действующего президента. Редакция самого CNN призвала Дональда Трампа поступиться собственными амбициями и сделать так, как сделал Барак Обама в 2016 году (пригласил победившего Трампа в Белый дом для транзита власти).

Министры внутренней безопасности уверяют, что страна находится «в эпицентре двух кризисов – коронавирусного и экономического», поэтому «мы не можем задерживать транзит власти ни на один день». «Национальная безопасность и экономические интересы США зависят от того, как быстро и четко федеральное правительство продемонстрирует уважение к воле американского народа и начнет плавный и мирный процесс передачи власти», – заявила член переходной команды Байдена Джен Псаки (да-да, та самая Псаки, которая жгла глаголом как представитель Госдепа при администрации Обамы).

Правда, ее красноречие Трампа почему-то не убеждает – действующий президент США не видит никаких оснований соглашаться с победой конкурента. Ни моральных, ни даже политических. Да, в США уже были прецеденты, когда один из кандидатов не хотел признавать поражение. Например, Ричард Никсон в 1960, уверенный в том, что сторонники его оппонента Джона Кеннеди подтасовали результаты в Техасе и Иллионойсе. Однако в итоге, по словам Скотта Ферриса (автора книги о Никсоне), «он понял, что если не согласится стать добропорядочным проигравшим, то его политическому будущему конец».

У Трампа такой дилеммы нет – президенту 74 года, и он вряд ли пойдет на выборы в 2024 году (если, конечно, не захочет побить Байдена на один год и стать самым пожилым избранным президентом в истории США). Он просто хочет спокойно проправить до 2024 года – и отказ признавать поражение является элементом его стратегии по сохранению Белого дома. Наряду с валом судебных исков – а также сбором штыков.

Демократов очень напрягает тот факт, что Трамп проводит зачистку силового блока. Он уволил со своего поста главу Пентагона Марка Эспера и назначил на его место руководителя Национального контртеррористического центра (NCTC) 55-летнего Кристофера Миллера. Уволены были также другие высокопоставленные сотрудники Пентагона – на их место пришли лоялисты президента. Кресла шатаются и под директорами ФБР и ЦРУ.

Они не понимают, что хочет Трамп. Развязать себе руки перед объявлением гражданской войны? Устроить «большую победоносную» внешнюю авантюру против Ирана или Китая? Или банально пытается гарантировать лояльность «штыков» в случае, если он выиграет дело в Верховном суде, а демократы эту победу признать откажутся, после чего выведут на улицу мародеров и люмпенов из «Black Life Matters», а также других фундаменталистских организаций?

Так что если кто-то думал, что Хатхи (главный слон из «Маугли») сдох, то он ошибается. Трамп еще поборется за свое место на водопое. А госсекретарь США Помпео в ответ на все претензии о срыве транзита заявил, что никаких проблем с передачей власти нет – передачей, по его словам, «второй администрации Трампа».

Ссылка на основную публикацию
Adblock
detector