Поучение

топ 100 блогов pg-kitezh25.06.2024

Вчера вечером скончалась моя жена — Пекарчик Ирина Александровна. Обняла меня и тихо ушла. Только прошептали друг другу: прости меня. Обидно, что я старше нее на три года, а первой ушла она. Онкология. Я почему об этом пишу. Меньше чем через месяц мне будет 79. Наверно, я самый старый среди вас. Может, это дает мне небольшое право высказать одно поучение. Когда мы расстаемся со своими близкими — перед нами проплывает вся наша совместная жизнь, все и счастливые часы, и все наши ошибки. В последнюю минуту мы с Ириной оба попросили прощения друг у друга. А поучение моё простое — не совершайте ошибок в жизни, дамы и господа. Поверьте — в момент ухода близкого человека — а мы с Ириной прожили 51 год — мы до неимовервной боли сожалеем о своих ошибках, о том, что уже ничего нельзя исправить.

Оставить комментарий

Предыдущие записи блогера :
Архив записей в блогах:
Хорошо я сегодня съездил. Открыл для себя новое место для рыбалки. половил корюшку. Пофотографировал. Поморозился. И отлично провел время. Несколько фото привожу. А подробный рассказ о рыбалке - если позволит время - на следующей неделе. Там есть о чем рассказать и что показать. Карточки н ...
Следующая неделя обещает быть вкусной. А всё потому что отправляюсь в пресс-тур по кухням популярных рестаранов Москвы вместе с Delivery Club . Начиная с понедельника в программе кухня ресторанов «Манон» по адресу: ул. 1905 года д.2 «Папа Джонс», ул. ...
(по горячим следам) Слитый финал не смотрела. Получится - гляну, хотя с фильмом, как с завещанием, - это всегда последняя версия. Ни один из подростков (была возможность лично провести некоторый опрос) не сказал, что у него возникло искушение попасть "туда". Романтизация - в глазах ...
В прошлый раз Капитолий захватили в 1814 году. Англичане. Они тогда весь Вашингтон захватили. С тех пор подобного не было. Майк Пенс (внезапно прозревший в ночь на 7 января 2020 г.): «Сегодня был черный день в истории Капитолия США...Мы строжайше осуждаем устроенное здесь ...
Кажется невероятным, что лингвистическая  модель, генерирующая по одному слову (token) за раз в состоянии синтезировать связные тексты, многоходовую логику и решения задач. Однако если мы переместимся в пространство смыслов, и на заданный вопрос существует более или менее ...