Возможности использования математических методов в измерении соцвоздействия

Позитивные измененияБизнес

К оценке импакта со всей строгостью

Возможности использования математических методов в измерении социального воздействия (на примере Health Insurance Subsidy Program)

Повышение доходов, улучшение образования, сокращение заболеваемости — важные направления социальных инвестиций. Будут ли эти изменения действительно достигнуты или нет, является решающим вопросом для инвестора при выборе социальной технологии или проекта для инвестиций. Однако часто руководители социальных проектов и программ сосредотачиваются на измерении непосредственных результатов (outputs), а не на оценке того, достигли ли проекты и программы своих целей (impact). В данной статье мы хотели бы осветить опыт оценки воздействия программы по субсидированию медицинских страховок — Health Insurance Subsidy Program (HISP) — и описать подходы, которые могут быть использованы для решения этой и других похожих задач.

Медицинская страховка для бедных

Health Insurance Subsidy Program (HISP) (в пер. с англ. «программа субсидирования медицинского страхования») — программа, реализуемая в Кении, которая финансирует покупку медицинской страховки для малообеспеченных домохозяйств, проживающих в сельской местности. Такая страховка покрывает расходы, связанные с медицинским обслуживанием и лекарствами. Цель HISP состоит в том, чтобы сократить расходы бедных домохозяйств по этим статья бюджета и, в конечном счете, улучшить здоровье населения.

Реализация HISP началась в пилотном варианте. В зависимости от результатов первого этапа планировалось постепенно расширять программу. В рамках реализации пилота предполагалось сократить ежегодные расходы малообеспеченных сельских домохозяйств на здравоохранение на душу населения, в среднем, как минимум на 10 долларов США, и программа должна была сделать это в течение двух лет.

Пилот внедрялся в 100 сельских территориях. Из 4959 домохозяйств в базовой выборке, в общей сложности 2907 были зарегистрированы в HISP, и программа успешно работала в течение следующих двух лет ее пилотной реализации. Все медицинские клиники и аптеки, обслуживающие 100 деревень, принимали пациентов по программе страхования, и опросы показывали, что большинство зарегистрированных домохозяйств удовлетворены этой программой. До старта и в конце двухлетнего экспериментального периода проводился сбор оценочных данных по той же выборке из 4959 домохозяйств.

Доказательство влияния

Повлияла ли HISP на личные расходы малообеспеченных домохозяйств на здравоохранение? Да, и это было доказано с помощью математических методов. Подход к оценке воздействия, использованный в рамках HISP, предполагал выбор наиболее строгого метода, с учетом особенностей проекта.

Кейс анализа результатов внедрения программы HISP предлагает нам следующее «меню» вариантов методов оценки воздействия:

  • рандомизированное распределение;
  • инструментальные переменные;
  • проектирование разрывной регрессии;
  • метод «разность разностей»;
  • метод сопоставления.

Все эти подходы преследуют цель определения достоверных групп сравнения, чтобы можно было оценить истинное воздействие программы на личные расходы на здравоохранение бедных домохозяйств.

Итак, мы отталкиваемся от этапа, когда показатели оценки выбраны и детально проработаны, составлен план сбора данных и данные собраны должным образом.

Начнем рассмотрение выбранной в рамках данного кейса методологии оценки с введения концепции контрфакта (то есть факта, противоречащего гипотезе). А далее в рамках данной статьи дадим обзор первому строгому методу, предложенному HISP и испытанному на опыте оценки данной программы.

Существует две концепции, которые являются неотъемлемой частью процесса проведения точных и надежных оценок воздействия — причинно-следственных связей и контрфактов.

В первую очередь вопросы социального воздействия связаны с причинно-следственными связями, например, с поиском ответов на такие вопросы:

Улучшает ли подготовка учителей результаты тестов учащихся? Приводят ли программы дополнительного финансирования медицинских учреждений к улучшению состояния здоровья детей? Увеличивают ли программы профессионального обучения доходы слушателей?

Поиск ответов на эти вопросы может быть непростым. Например, в контексте программы профессиональной подготовки, простого наблюдения того, как доход стажера увеличивается после завершения такой программы, недостаточно для установления причинно-следственной связи. Доход стажера мог бы увеличиться, даже если бы он не проходил обучение — из-за его собственных усилий, из-за изменения условий на рынке труда или из-за из многих других факторов, которые могут повлиять на доход.

Наша задача — найти метод, который позволит установить причинно-следственную связь. Мы эмпирическим путем должны определить, в какой степени конкретная программа — и только эта программа — способствовала изменениям результата. Все посторонние факторы должны быть исключены методикой.

Ответ на основной вопрос оценки воздействия — каково влияние или причинно-следственный эффект программы (P) на интересующий результат (Y)? — дается базовой формулой оценки воздействия:

Δ = (Y | P = 1) − (Y | P = 0).

Эта формула утверждает, что причинное влияние (Δ) программы (P) на результат (Y) представляет собой разницу между результатом (Y) с программой (другими словами, когда P = 1) и тем же результатом (Y) без программы (то есть, когда P = 0).

Например, если P обозначает программу профессиональной подготовки, а Y обозначает доход, то причинно-следственное влияние программы профессиональной подготовки (Δ) представляет собой разницу между доходом человека (Y) после участия в программе профессиональной подготовки (другими словами, когда P = 1) и тем же человеком в тот же момент времени, если он или она не участвовали в программе (другими словами, когда P = 0).

Если бы это было возможно, мы бы наблюдали, какой доход имел бы один и тот же человек в один и тот же момент времени как с программой, так и без нее, так что единственным возможным объяснением любой разницы в доходах этого человека была бы программа. Сравнивая одного и того же человека с самим собой в один и тот же момент, мы бы смогли исключить любые внешние факторы, которые также могли бы объяснить разницу в результатах.

Но к сожалению, измерение одной и той же единицы в двух вариантах одновременно невозможно: в конкретный момент времени человек либо участвовал в программе, либо не участвовал.

Это называется контрфактуальной проблемой: как мы можем измерить, что произошло бы, если бы преобладали другие обстоятельства?

Контрольная и экспериментальная группа

На практике задача оценки воздействия состоит в том, чтобы определить контрольную и экспериментальную группы, которые сходны по своим параметрам, но одна из них участвует в программе, а другая нет. Так что разница в результатах должна быть обусловлена программой.

Экспериментальные и контрольные группы должны быть одинаковыми по крайней мере в трех отношениях:

1. Исходные характеристики групп должны быть идентичными. Например, средний возраст в экспериментальной группе должен быть таким же, как и в контрольной группе.

2. Фактор программы не должен влиять на контрольную группу ни прямо, ни косвенно.

3. Результаты в контрольной группе должны измениться так же, как и результаты в экспериментальной группе, если обеим группам была предоставлена программа (или нет). То есть, группы должны реагировать на программу одинаково. Например, если доходы людей в экспериментальной группе увеличились на 5000 рублей благодаря программе обучения, тогда доходы людей в группе сравнения также увеличились бы на 5000 рублей, если бы они прошли обучение.

Когда эти три условия выполняются, то только существование исследуемой программы будет объяснять любые различия в результате (Y) между двумя группами.

Вместо того, чтобы рассматривать воздействие исключительно для одного человека, более реалистично рассмотреть среднее воздействие для группы людей (Рисунок 1).

Здесь важно рассмотреть, что произойдет, если мы решим продолжить оценку без нахождения контрольной группы. Мы можем столкнуться с риском вынести неточные суждения о результатах программы, в частности, в отношении оценки контрфакта.

Такой риск существует при использовании следующих подходов:

  • Сравнения «до и после» (рефлексивного сравнения): сравнивают результаты одной и той же группы до и после участия в программе.
  • Сравнения зарегистрированных и незарегистрированных (или самостоятельно выбранных) групп лиц: сравнивают результаты группы, которая решила участвовать в программе, с результатами группы, которая решила не участвовать.

Сравнение «до и после» пытается установить влияние программы путем отслеживания изменений результатов для участников программы с течением времени. По сути, это сравнение предполагает, что, если бы программа никогда не существовала, результат (Y) для участников программы был бы точно таким же, как и их ситуация до программы. К сожалению, для многих программ, реализуемых в течение нескольких месяцев или лет, это предположение может не выполняться.

Рассмотрим для примера оценку программы микрофинансирования для сельских фермеров. Программа предоставляет фермерам микрозаймы, позволяющие им покупать удобрения для увеличения производства риса. Можно увидеть, что за год до начала программы фермеры собирали в среднем 1000 килограммов риса с гектара (точка В на Рисунке 2).

Запущена схема микрофинансирования, и год спустя урожайность риса увеличилась до 1100 кг с гектара (точка А на рисунке 2). Если оценить воздействие, используя сравнение «до и после», то нужно опираться на базовый результат в качестве оценки контрфактного сценария. Применяя общую формулу оценки воздействия, мы бы пришли к выводу, что программа увеличила урожайность риса на 100 кг с гектара (A−B).

Однако представьте, что за год до запуска программы количество осадков было нормальным, но в год действия программы произошла засуха. Из-за засухи средняя урожайность фермеров без схемы микрозаймов, вероятно, будет ниже, чем В: скажем, на уровне D. В этом случае истинное воздействие программы будет A−D, что больше, чем 100 кг, оцененные с использованием сравнения до и после.

Количество осадков было одним из множества внешних факторов, которые могли повлиять на интересующий результат программы (урожайность риса) со временем. Аналогичным образом, многие результаты, на улучшение которых направлены программы развития, такие как доход, производительность, здравоохранение или образование, подвергаются влиянию множества факторов с течением времени. По этой причине базовый результат является не самым точным вариантом оценки контрфактного сценария.

Сравнение группы лиц, добровольно подписавшихся на участие в программе, с группой лиц, решивших не участвовать, является еще одним рискованным подходом к оценке воздействия. Группа сравнения, которая самостоятельно выбрала программу, предоставит еще одну «поддельную» контрфактную оценку. Выбор происходит, когда участие в программе основано на предпочтениях или решениях каждого участника. Такое предпочтение является отдельным фактором, от которого возможно зависит результат участия в ней. Говорить о сравнимости подписавшихся с теми, кто не подписался, в таких условиях нельзя.

Консультанты-оценщики пилота HISP в попытках математического осмысления полученных результатов совершили и первую, и вторую ошибки в оценке контрфакта, но организаторы программы, понимая риск предвзятости, решили найти методы для более точной оценки.

Метод рандомизированного распределения

Этот метод похож на проведение лотереи, которая решает, кто входит в программу в данный момент времени, а кто нет. Данный метод также известен как рандомизированные контролируемые исследования (РКИ). Этот метод не только предоставляет команде проекта справедливые и прозрачные правила распределения ограниченных ресурсов между одинаково заслуживающими этого группами населения, но также представляет собой надежный метод оценки воздействия программы.

«Случайность» используется в применении к большой группе населения, имеющей однородный набор качеств. Чтобы решить, кому будет предоставлен доступ к программе, а кому нет, мы можем сгенерировать и базу для надежной оценки контрфакта.

При рандомизированном распределении каждая подходящая единица (например, физическое лицо, домохозяйство, предприятие, школа, больница или сообщество) имеет одинаковую вероятность быть отобранной для участия в программе. При избыточном спросе на программу рандомизированное распределение считается понятным и справедливым для всех участников процесса.

Во Вставке 1 представлены примеры использования рандомизированного распределения на практике.

Вставка 1: Рандомизированное распределение как ценный инструмент исследования

Рандомизированное распределение может быть полезным правилом для определения выгод от программы даже вне контекста оценки воздействия. Это правило иллюстрируют следующие два случая из Африки.

В Кот-д’Ивуаре после периода кризиса правительство ввело программу временного трудоустройства, которая первоначально была ориентирована на бывших участников вооруженного конфликта, а затем была распространена на молодежь в целом. Программа предоставляла молодежи возможности краткосрочного трудоустройства, в основном в национальное дорожное агентство для очистки или восстановления дорог. Молодежь в охваченных программой муниципалитетах была приглашена на регистрацию. Учитывая привлекательность льгот, заявки подало гораздо больше молодых людей, чем было свободных мест. Для того чтобы придумать прозрачный и справедливый способ распределения благ между заявителями, исполнители программы задействовали процесс публичной лотереи. После окончания регистрации и получения информации о количестве претендентов (скажем, N) в том или ином населенном пункте была организована публичная лотерея. Всех, кто подал заявление, вызывали в общественное место и помещали в коробку листочки бумаги с цифрами от 1 до N. Затем претендентов вызывали по одному, чтобы они подошли и вытянули номер из ящика перед всеми остальными претендентами. После того как участник вытянул номер, его зачитывали вслух. После того, как все претенденты были вызваны, назначенный человек по очереди проверял оставшиеся в ящике номера, чтобы убедиться, что они соответствуют претендентам, которые не явились на розыгрыш. Если для участия в программе было доступно N мест, то в программу отбирались кандидаты, вытянувшие наименьшие номера. Лотерея была организована отдельно для мужчин и для женщин. Участники хорошо отнеслись к процессу публичной лотереи. Эта процедура придала программе образ справедливости и прозрачности в постконфликтной обстановке, характеризующейся социальной напряженностью. После нескольких лет работы исследователи использовали это правило случайности, уже интегрированное в работу программы, для проведения оценки ее воздействия.

В Нигере правительство при поддержке Всемирного банка в 2011 году приступило к реализации программы финансовой помощи. Нигер — одна из беднейших стран в мире, и в первые годы работы программы количество бедных домохозяйств, заслуживающих вступить в нее, значительно превышало объем доступных пособий. Департаменты и коммуны, в которых программа денежных трансфертов будет реализована в первую очередь, отбирались исполнителями программы по географическому принципу. Это было возможно, потому что имелись данные для определения относительной бедности или уязвимости различных департаментов или коммун. Однако, в силу объективных факторов, в каждой коммуне участвовать в программе могло весьма ограниченное число жителей. На первом этапе проекта исполнители программы решили использовать публичные лотереи для отбора деревень-бенефициаров в целевых коммунах. Это решение было принято отчасти потому, что имеющиеся данные для объективного определения приоритетности деревень были ограничены, а отчасти потому, что в проект была встроена оценка воздействия. Для проведения публичных лотерей в муниципальный центр приглашали старост всех деревень, названия деревень писали на листе бумаги и помещали в ящик. Затем ребенок в случайном порядке вытягивал из ящика названия деревень-бенефициаров, пока квоты не были заполнены. Процедура проводилась отдельно для оседлых и кочевых деревень, чтобы обеспечить представительство каждой группы. После выбора деревень был задействован отдельный механизм для выбора беднейших домохозяйств, которые впоследствии назначили бенефициарами. Прозрачность и справедливость публичной лотереи была высоко оценена местными властями, а также исполнителями программы — настолько, что эта процедура использовалась во втором и третьем циклах проекта для отбора более 1000 деревень по всей стране. Даже если публичная лотерея на тот момент не была необходима для оценки воздействия, ее ценность как прозрачного, справедливого и широко признанного операционного инструмента для распределения благ между одинаково достойными группами населения оправдывала ее дальнейшее использование в глазах исполнителей программы и местных властей.

Источник: Bertrand, Marianne, Bruno Crépon, Alicia Marguerie, and Patrick Premand. Impacts à Court et Moyen Terme sur les Jeunes des Travaux à Haute Intensité de Main d’oeuvre (THIMO): Résultats de l’évaluation d’impact de la composante THIMO du Projet Emploi Jeunes et Développement des compétence (PEJEDEC) en Côte d’Ivoire. Washington, DC: Banque Mondiale et Abidjan, BCP-Emploi. 2016 Premand, Patrick, Oumar Barry, and Marc Smitz. «Transferts monétaires, valeur ajoutée de mesures d’accompagnement comportemental, et développement de la petite enfance au Niger. Rapport descriptif de l’évaluation d’impact à court terme du Projet Filets Sociaux.» Washington, DC: Banque Mondiale. 2016

Почему рандомизированное распределение дает хороший результат?

Как уже обсуждалось, идеальная контрольная группа должна быть максимально похожа на экспериментальную во всех отношениях, за исключением ее участия в оцениваемой программе. Когда мы случайным образом назначаем единицы, случайная выборка сама по себе создает экспериментальную и контрольную группу, которые с высокой вероятностью будут статистически идентичными — при условии, что количество выборки достаточно велико.

Рисунок 3 иллюстрирует, почему рандомизированное распределение дает группу сравнения, которая статистически эквивалентна экспериментальной группе.

Чтобы оценить влияние программы при рандомизированном распределении, мы берем разницу между результатом эксперимента (средний результат случайно выбранной экспериментальной группы) и оценкой контрфакта (средний результат случайно выбранной контрольной группы). Мы можем быть уверены, что наше предполагаемое воздействие представляет собой истинное влияние программы, поскольку устранили наблюдаемые и ненаблюдаемые факторы, которые в противном случае могли бы правдоподобно объяснить разницу в результатах.

Во Вставках 2 и 3 приведены примеры использования рандомизированного распределения для оценки воздействия ряда различных вмешательств по всему миру.

Вставка 2: Рандомизированное распределение как правило для выбора бенефициаров программ: условные денежные трансферты и образование в Мексике

Программа Progresa, которая сегодня называется Prospera, предусматривает денежные трансферты бедным матерям в сельских районах Мексики при условии, что их дети будут посещать школу и регулярно проходить медицинские осмотры. Денежные трансферты для детей с 3 по 9 класс покрывают от 50% до 75% от частных расходов на обучение и гарантируются в течение трех лет. Общины и домохозяйства, имеющие право на участие в программе, были определены на основе индекса бедности, созданного на основе данных переписи населения и сбора первичных данных. В связи с необходимостью поэтапного внедрения широкомасштабной социальной программы около двух третей населенных пунктов (314 из 495) были случайным образом отобраны для участия в программе в первые два года, а оставшийся 181 населенный пункт использовался в качестве контрольной группы до начала реализации программы на третий год. Пользуясь методом рандомизированного распределения, Шульц (2004) обнаружил среднее увеличение посещаемости на 3,4% для всех учащихся 1–8 классов. В наибольшей степени увеличилась доля девочек, закончивших 6 класс, — на 14,8%. Вероятная причина заключается в том, что девочки имеют тенденцию бросать школу с возрастом, поэтому им предоставлялся несколько больший трансферт, чтобы они могли остаться в школе после начальных классов. Затем эти краткосрочные результаты были экстраполированы для прогнозирования долгосрочного влияния программы Progresa на продолжительность обучения в школе и размер заработка.

Schultz, Paul. «School Subsidies for the Poor: Evaluating the Mexican Progresa Poverty Program.» Journal of Development Economics 74 (1): 199–250. 2004.

Вставка 3: Рандомизированное распределение защиты воды из природных источников для улучшения здоровья жителей Кении

Связь между качеством воды и здоровьем в развивающихся странах уже доказана. Менее очевидна, однако, ценность улучшения инфраструктуры вокруг источников воды для здоровья населения. Кремер и другие (2011) измерили результаты программы по предоставлению технологии защиты природных источников для улучшения качества воды в Кении, случайным образом определяя источники воды, на которые оказывалось воздействие.

Приблизительно 43% домохозяйств в сельской местности Западной Кении получают питьевую воду из природных источников. Технология защиты источника герметизирует его, чтобы уменьшить загрязнение воды.

Начиная с 2005 года, НПО «Международная поддержка детей» (International Child Support, ICS) реализовала программу защиты природных источников воды в двух районах на западе Кении. Из-за финансовых и административных ограничений ICS решила поэтапно внедрять программу в течение четырех лет. Это позволило специалистам по оценке использовать в качестве контрольной группы источники, на которые еще не оказывалось воздействие.

Из 200 источников, отвечающих требованиям, 100 были случайным образом отобраны для воздействия в течение первых двух лет. Исследование показало, что защита источников снизила фекальное загрязнение воды на 66%, а диарею у детей среди пользователей источников — на 25%.

Источник: Kremer, Michael, Jessica Leino, Edward Miguel, and Alix Peterson Zwane. «Spring Cleaning: Rural Water Impacts, Valuation, and Property Rights Institutions.» Quarterly Journal of Economics 126: 145–205. 2011

Когда можно использовать рандомизированное распределение?

Рандомизированное распределение может использоваться в одном из двух сценариев:

1. Когда количество людей, имеющих право на участие, превышает количество доступных мест в программе. Когда спрос на программу превышает предложение, можно использовать «лотерею» для выбора экспериментальной группы в пределах соответствующей категории населения. Группа, выигравшая в «лотерею», является экспериментальной группой, а остальная часть населения, которой не предлагается программа, является группой сравнения. До тех пор, пока существует ограничение, препятствующее распространению программы на все население, можно поддерживать группы сравнения для измерения краткосрочных, среднесрочных и долгосрочных результатов программы.

2. Когда необходимо постепенно внедрять программу до тех пор, пока она не охватит всю генеральную совокупность. Когда программа вводится в действие поэтапно, случайный порядок, в котором участники получают доступ к участию в программе, дает каждому одинаковые шансы на участие в ней на первом этапе или на более позднем этапах. До тех пор, пока последняя группа еще не была поэтапно включена в программу, она служит контрольной группой. Такой подход также может позволить выявить эффект от участия в программе в течение большего или меньшего времени.

Этапы реализации метода рандомизированного распределения

Шаг 1 — определить группы, которые имеют право на участие в программе. Помните, что в зависимости от конкретной программы единицей измерения может быть человек, медицинский центр, школа, бизнес или даже целая деревня или муниципалитет.

Шаг 2 — выборка единиц из совокупности для включения в оценочную выборку.

Этот второй шаг делается главным образом для ограничения затрат на сбор данных. Если для оценки можно использовать данные из существующих систем мониторинга, которые охватывают всю совокупность подходящих единиц, тогда вам не потребуется составлять отдельную оценочную выборку.

Шаг 3 — формирование экспериментальной и контрольной групп и группы из единиц в оценочной выборке путем рандомизированного распределения.

На Рисунке 4 отображены основные шаги реализации метода рандомизированного распределения.

Когда данные шаги реализованы, остается уже сравнительно простой этап. После того, как программа будет запущена, необходимо будет измерить результаты как для экспериментальной, так и контрольной группы. Воздействие программы — это разница между средним результатом (Y) для экспериментальной группы и средним результатом (Y) для контрольной группы.

Рандомизированное распределение является наиболее надежным методом оценки контрфактных данных и в определенной степени — золотым стандартом в области оценки воздействия.

Таблица 1 Оценка HISP: сравнение экспериментальной и контрольной групп

Примечание: Уровень значимости: ** = 1 процент. 

Оценка воздействия HISP: Рандомизированное распределение

Вернемся к оценке пилота программы HISP, в котором участвуют 100 экспериментальных деревень.

Проведя две оценки воздействия с использованием потенциально предвзятых оценок (о которых речь шла ранее), команда проекта решила получить более точную оценку — с использованием рандомизированного распределения. Было определено, что для построения достоверной оценки контрфакта потребуется идентифицировать группу деревень, которые во всех отношениях максимально похожи на 100 деревень, где проводится эксперимент. Поскольку 100 экспериментальных деревень для HISP были выбраны случайным образом из всех деревень в стране, экспериментальные деревни имели те же характеристики, что и сельские деревни в стране в целом. Оставалось оценить разницу между этими двумя группами. Таким образом, были собраны данные еще о 100 деревнях, которые не были охвачены программой.

В Таблице 2 показаны средние расходы домохозяйств на здравоохранение в контрольной и экспериментальной группах по одинаковым критериям. Средние расходы домохозяйств на здравоохранение до эксперимента в двух группах статистически не отличаются, как и следовало ожидать при рандомизированном распределении. Математический анализ показал, что результатом эксперимента стало сокращение расходов домохозяйств на 10,14 доллара США за два года.

Таблица 2. Оценка HISP: Рандомизированное распределение

Примечание: Уровень значимости: ** = 1 процент

Источник: Paul J. Gertler, Sebastian Martinez, Patrick Premand, Laura B. Rawlings, and Christel M. J. Vermeersch. Impact Evaluation in
Practice Second Edition. — International Bank for Reconstruction and Development / The World Bank, 2016

В заключение хотелось бы сказать, что использование строгих методов оценки и организация регулярного сбора и мониторинга данных о проекте или программе представляют основной набор инструментов, которые заинтересованные стороны могут использовать для проверки и повышения эффективности и результативности социальных проектов и программ на различных этапах реализации.

Елена Авраменко, эксперт проекта «Разработка модели оценки социально-экономического воздействия НКО» фонда GLADWAY, мастер Lean 6 Sigma уровня Green Belt

Список литературы: 1. Paul J. Gertler, Sebastian Martinez, Patrick Premand, Laura B. Rawlings, and Christel M. J. Vermeersch. Impact Evaluation in Practice Second Edition. — International Bank for Reconstruction and Development / the World Bank, 2016 2. Imbens, Guido W., and Donald B. Rubin. Rubin Causal Model. In the New Palgrave Dictionary of Economics, second edition, edited by Steven N. Durlauf and Lawrence E. Blume. Palgrave, 2008. 3. Rubin, Donald B. Estimating Causal Eff ects of Treatments in Randomized and Nonrandomized Studies. Journal of Educational Psychology 66 (5): 688–701, 1974. 4. Bertrand, Marianne, Bruno Crépon, Alicia Marguerie, and Patrick Premand. Impacts à Court et Moyen Terme sur les Jeunes des Travaux à Haute Intensité de Main d’oeuvre (THIMO): Résultats de l’évaluation d’impact de la composante THIMO du Projet Emploi Jeunes et Développement des compétence (PEJEDEC) en Côte d’Ivoire. Washington, DC: Banque Mondiale et Abidjan, BCP-Emploi. 2016. 5. Blattman, Christopher, Nathan Fiala, and Sebastian Martinez. «Generating Skilled Self-Employment in Developing Countries: Experimental Evidence from Uganda.» Quarterly Journal of Economics 129 (2): 697–752. doi: 10.1093/qje/qjt057. 6. Bruhn, Miriam, and David McKenzie. «In Pursuit of Balance: Randomization in Practice in Development Field Experiments.» American Economic Journal: Applied Economics 1 (4): 200–232. 2009. 7. Dupas, Pascaline. 2011. «Do Teenagers Respond to HIV Risk Information? Evidence from a Field Experiment in Kenya.» American Economic Journal: Applied Economics 3 (1): 1–34. 8. Glennerster, Rachel, and Kudzai Takavarasha. Running Randomized Evaluations: a Practical Guide. Princeton, NJ: Princeton University Press. Randomized Assignment 87, 2013. 9. Kremer, Michael, Jessica Leino, Edward Miguel, and Alix Peterson Zwane. «Spring Cleaning: Rural Water Impacts, Valuation, and Property Rights Institutions.» Quarterly Journal of Economics 126: 145–205. 2011. 10. Kremer, Michael, and Edward Miguel. «Worms: Identifying Impacts on Education and Health in the Presence of Treatment Externalities.» Econometrica 72 (1): 159–217. 2004. 11. Premand, Patrick, Oumar Barry, and Marc Smitz. «Transferts monétaires, valeur ajoutée de mesures d’accompagnement comportemental, et développement de la petite enfance au Niger. Rapport descriptif de l’évaluation d’impact à court terme du Projet Filets Sociaux.» Washington, DC: Banque Mondiale. 2016. 12. Schultz, Paul. «School Subsidies for the Poor: Evaluating the Mexican Progresa Poverty Program.» Journal of Development Economics 74 (1): 199–250. 2004


Evaluating Impact with All Rigor Possible

Applicability of Mathematical Methods in Measuring Social Impact (Exemplified by the Health Insurance Subsidy Program).

Increasing incomes, improving the education system, reducing morbidity are important areas of impact investment. Whether these changes will actually be achieved is the key question for an investor deciding on a social technology or project to invest in. However, the leaders of social projects and programs often focus on measuring the immediate outputs rather than on assessing whether projects and programs have had the expected impact. In this article, we would like to highlight the experience of evaluating the impact of the Health Insurance Subsidy Program (HISP) and describe approaches that can be used to address this and other similar problems.

Health insurance for the poor

The Health Insurance Subsidy Program (HISP) is a program implemented in Kenya that finances the purchase of health insurance for low-income households in rural areas. The insurance covers the costs associated with medical care and medications. The objective of HISP is to reduce out-ofpocket health expenditures of poor families and ultimately to improve health outcomes.

HISP was originally launched in pilot mode. The plans for gradual expansion of the program depended on the results of the pilot stage. As part of the pilot run, the plan was to reduce the average yearly per-capita health expenditures of poor rural households by at least USD 10 below what they would have spent in the ab-sence of the program, and this target was to be reached within two years.

During the initial pilot phase, HISP was introduced in 100 rural areas. Of the 4,959 households in the baseline sample, a total of 2,907 were enrolled in HISP, and the program operated successfully through its pilot stage over the next two years. All health clinics and pharmacies serving 100 villages accepted patients under the insurance program, and surveys showed that most enrolled households were happy with the program. Data was collected before the start of the pilot run and at the end of the two-year period, using the same sample of 4,959 households.

Proof of impact

Has HISP affected out-of-pocket health expenditures of poor rural households? Yes it has, and it has been proven mathematically. The impact evaluation approach used as part of HISP was to select the most rigorous method, given the specifics of the project.

HISP implementation case study provides us with the following “menu” of options for impact evaluation methods:

  • randomized assignment;
  • instrumental variables;
  • regression discontinuity design;
  • difference-in-differences;
  • benchmarking method.

All of these approaches aim at identifying valid comparison groups so that the true impact of the program on out-of-pocket health care expenditures of poor households can be evaluated.

So, we build on the stage when the evaluation indicators are selected and elaborated in detail, the data collection plan is ready and the data is collected properly.

We will review the evaluation methodology selected for this case by introducing the concept of counterfactual (that is, a fact that contradicts the hypothesis). And then, within the framework of this article, we will give an overview of the most rigorous evaluation method proposed by HISP and tested on this program.

There are two concepts that are integral to the process of making accurate and reliable impact evaluations — the concept of causation and that of counterfactual.

First of all, issues of social impact are related to causation, for example, with the search for answers to such questions:

Does teacher training improve student test scores? Do additional funding programs for health facilities result in better health outcomes for children? Do vocational training programs increase a trainee’s income?

Finding answers to these questions can be difficult. For example, in the context of a vocational training program, simply observing how a trainee’s income increases after completing such a program is not sufficient to establish a causal relationship. A trainee’s income could have increased even if he or she had not been trained — all through the trainee’s own efforts, due to changing conditions in the labor market, or due to many other factors that could affect income.

The challenge is to find a method that will allow us to establish a causal relationship. We must empirically determine to what extent a particular program — and that program alone — contributed to the change in outcome. The methodology must exclude all external factors

The answer to the basic question of impact evaluation is what is the impact or causal effect of the program (P) on the outcome of interest (Y)? — is given by the basic impact evaluation formula:

Δ = (Y | P = 1) − (Y | P = 0).

This formula states that the causal effect (Δ) of the program (P) on the outcome (Y) is the difference between the outcome (Y) with the program (in other words, when P = 1) and the same outcome (Y) without the program (i.e. when P = 0).

For instance, should P denote a training program and Y denote income, then the causal effect of the training program (Δ) is the difference between a trainee’s income (Y) after participating in the training program (in other words, when P = 1) and the same person at the same point in time if he or she did not participate in the program (in other words, when P = 0).

If this were possible, we would observe how much income the same person would have at the same point in time both with and without the program, so that the program would be the only possible explanation for any difference in that person’s income. By comparing the same person with himself or herself at the same time, we would be able to exclude any external factors that could also explain the difference in outcomes.

But unfortunately, measuring two versions of the same unit at the same time is impossible: at a particular point in time, the person either participated or did not participate in the program.

This phenomenon is called the counterfactual problem: how can we measure what would happen if other circumstances prevailed?

Comparison and treatment groups

In practice, the task of impact evaluation is to identify a comparison group and a treatment group that are similar in their parameters, but one of them participates in the program and the other does not. That way any difference in results must be due to the program.

The treatment and comparison groups should be the same in at least three respects:

1. The baseline properties of the groups should be identical. For example, the mean age of the treatment group should be the same as that of the comparison one.

2. The program factor should not affect the comparison group directly or indirectly.

3. The results in the comparison group should change in the same way as the results in the treatment group if both groups were (or were not) enrolled in the program. That is, groups should respond to the program in the same way. For example, if the income in the treatment group increased by RUB 5,000 due to the training program, then the income in the comparison group would also increase by RUB 5,000 if they received the training.

When the above three conditions are met, then only the existence of the program under study will account for any differences in the outcome (Y) between the two groups.

Instead of considering the impact solely for one person, it is more realistic to consider the average impact for a group of people (Figure 1).

It is important to consider what happens if we decide to proceed with the evaluation without finding a comparison group. We may run the risk of making inaccurate judgments about program outcomes, in particular with regard to counterfactual evaluations.

Such a risk exists when using the following approaches:

  • Before-and-after comparisons (also known as reflexive comparisons): comparing the outcomes of the same group prior to and subsequent to the introduction of a program
  • With-and-without comparisons: comparing the outcomes in the group that chose to enroll with the results of the group that chose not to enroll.

A before-and-after comparison attempts to establish the impact of the program by tracking changes in outcomes for program participants over time. In essence, this comparison assumes that if the program had never existed, the outcome (Y) for program participants would have been exactly the same as their situation before the program. Unfortunately, in the vast majority of cases that assumption simply does not hold.

Consider, for example, the evaluation of a microfinance program for rural farmers. The program provides farmers with microloans to help them buy fertilizer to increase rice production. You observe that in the year before the start of the program, farmers harvested an average of 1,000 kilograms (kg) of rice per hectare. (Point B in Figure 2).

The microfinance scheme is launched, and a year later rice yields have increased to 1,100 kg per hectare. (Point A in Figure 2). If you try to evaluate impact using a before-and-after comparison, you have to use the pre-intervention outcome as a counterfactual. Applying the basic impact evaluation formula, you would conclude that the scheme had increased rice yields by 100 kg per hectare. (A−B)

However, imagine that rainfall was normal during the year before the scheme was launched, but a drought occurred in the year the program started. Because of the drought, the average yield without the microloan scheme would have been lower than В: say, at level D. In that case, as the before-and-after comparison assumes, the true impact of the program would have been A−D, which is larger than 100 kg.

Rainfall was one of many external factors that could have influenced the outcome of interest (rice yield) of the scheme over time. Similarly, many of the outcomes that development programs aim to improve, such as income, productivity, health or education, are affected by multiple factors over time. For this reason, the preintervention outcome is almost never a good estimate of the counterfactual.

Comparing those who chose to enroll to those who chose not to enroll (“with-and-without”) constitutes another risky approach to impact evaluation. The comparison group, which independently chose the program, will provide another “counterfeit” counterfactual estimate. The choice occurs when participation in the program is based on the preferences or decisions of each participant. This preference is a separate factor on which the outcome of participation may depend. It is impossible to talk about the comparability of those who enrolled with those who did not enroll under such conditions.

The HISP pilot evaluation consultants, in their attempts to mathematically understand the results, made both the first and the second mistake in evaluating the counterfactual, but the program organizers, realizing the risk of bias, decided to find methods for a more accurate evaluation.

Randomized assignment method

This method is similar to running a lottery that decides who is enrolled in the program at a given time and who is not. The method is also known as randomized controlled trials (RCTs). Not only does it give the project team fair and transparent rules for assigning limited resources to equally eligible population clusters, but it also provides a reliable method for evaluating program impact.

“Randomness” applies to a large population cluster having a homogeneous set of qualities. In order to decide who will be given access to the program and who will not, we can also generate a basis for a reliable counterfactual evaluation.

In a randomized allocation, each eligible unit (e.g., individual, household, business, school, hospital, or community) has the same probability of being selected for the program. When there is excess demand for the program, randomized assignment is considered transparent and fair for all participants in the process.

Insert 1 provides examples of the use of randomized distribution in practice.

Insert 1: Randomized controlled trials as a valuable operational tool

Randomized assignment can be a useful rule for assigning program benefits, even outside the context of an impact evaluation. The following two cases from Africa illustrate how.

In Côte d’Ivoire, following a period of crisis, the government introduced a temporary employment program that was initially targeted at former combatants and later expanded to youth more generally. The program provided youth with short-term employment opportunities, mostly to clean or rehabilitate roads through the National Roads Agency. Young people in participating municipalities were invited to register. Given the attractiveness of the benefits, many more candidates applied than there were places available. In order to come up with a transparent and fair way of allocating the benefits among applicants, program implementers put in place a public lottery process. Once registration had closed and the number of applicants (say, N) in a location was known, a public lottery was organized. All candidates were invited to a public location, and small pieces of paper with numbers from 1 to N were put in a box. Applicants were then called one by one to come to draw a number from the box in front of all other candidates. Once the number was drawn, it was read aloud. After all applicants were called, someone would check the remaining numbers in the box one by one to ensure they match the applicants who did not turn up for the draw. If N spots were available for the program, the applicants having drawn the lowest numbers were selected for the program. The draw was organized separately for men and women. The public lottery process was well accepted by participants, and helped provide an image of fairness and transparency to the program in a post-conflict environment marked by social tensions. After several years of operations, researchers used this allocation rule, already integrated in the program, to conduct impact evaluation.

In Niger, the government started to roll out a national safety net project in 2011 with support from the World Bank. Niger is one of the poorest countries in the world, and the population of poor households eligible for the program greatly exceeded the available benefits during the first years of operation. Program implementers relied on geographical targeting to identify the departments and communes where the cash transfer program would be implemented first. This was feasible, as data was available to identify relative poverty or vulnerability status of the various departments or communes. However, within communes, very limited number of people could enroll in the program based on objective criteria. For the first phase of the project, program implementers decided to use public lotteries to select beneficiary villages within targeted communes. This decision was made in part because the available data to prioritize villages objectively was limited, and in part because an impact evaluation was being embedded in the project. For the public lotteries, all the village chiefs were invited in the municipal center, and the names of their villages were written on a piece of paper and put in a box. A child would then randomly draw beneficiary villages from the box until the quotas were filled. The procedure was undertaken separately for sedentary and nomadic villages to ensure representation of each group. After villages were selected, a separate household-level targeting mechanism was implemented to identify the poorest households, which were later enrolled as beneficiaries. The transparency and fairness of the public lottery was greatly appreciated by the village authorities, as well as by program implementers — so much so that the public lottery process continued to be used in the second and third cycle of the project to select over 1,000 villages throughout the country. Even though public lottery was not necessary for an impact evaluation at that point, its value as a transparent, fair, and widely accepted operational tool to allocate benefits among equally deserving populations justified its continued use in the eyes of program implementers and local authorities.

Sources: Bertrand, Marianne, Bruno Crépon, Alicia Marguerie, and Patrick Premand. Impacts à Court et Moyen Terme sur les Jeunes des Travaux à Haute Intensité de Main d’oeuvre (THIMO): Résultats de l’évaluation d’impact de la composante THIMO du Projet Emploi Jeunes et Développement des compétence (PEJEDEC) en Côte d’Ivoire. Washington, DC: Banque Mondiale et Abidjan, BCPEmploi. 2016 Premand, Patrick, Oumar Barry, and Marc Smitz. “Transferts monétaires, valeur ajoutée de mesures d’accompagnement comportemental, et développement de la petite enfance au Niger. Rapport descriptif de l’évaluation d’impact à court terme du Projet Filets Sociaux.” Washington, DC: Banque Mondiale. 2016.

Why does the randomized assignment method work well?

As discussed, the ideal comparison group should be as similar as possible to the treatment group in all respects, except with respect to its participation in the program that is being evaluated. When we randomly assign units to treatment and comparison groups, that randomized assignment process in itself will produce two groups with a high probability of being statistically identical — as long as the number of potential units to which we apply the randomized assignment process is sufficiently large.

Figure 3 illustrates why randomized assignment produces a comparison group that is statistically equivalent to the treatment group.

To estimate the impact of a program using randomized assignment, we simply take the difference between the outcome under treatment (the mean outcome of the randomly assigned treatment group) and our estimate of the counterfactual (the mean outcome of the randomly assigned comparison group). We can be confident that our estimated impact constitutes the true impact of the program, since we have eliminated all observed and unobserved factors that might otherwise plausibly explain the difference in outcomes.

Inserts 2 and 3 give real-world applications of randomized assignment to evaluate the impact of a number of different interventions around the world.

Insert 2: Randomized assignment as a program allocation rule: conditional cash transfers and education in Mexico

The Progresa program, now called “Prospera,” provides cash transfers to poor mothers in rural Mexico conditional on their children’s enrollment in school and regular health checkups. The cash transfers, for children in grades 3 through 9, amount to about 50 percent to 75 percent of the private cost of schooling and are guaranteed for three years. The communities and households eligible for the program were determined based on a poverty index created from census data and baseline data collection. Because of a need to phase in the large-scale social program, about two-thirds of the localities (314 out of 495) were randomly selected to receive the program in the first two years, and the remaining 181 served as a comparison group before entering the program in the third year. Based on the randomized assignment, Schultz (2004) found an average increase in enrollment of 3.4 percent for all students in grades 1–8, with the largest increase among girls who had completed grade 6, at 14.8 percent. The likely reason is that girls tend to drop out of school at greater rates as they get older, so they were given a slightly larger transfer to stay in school past the primary grade levels. These shortterm impacts were then extrapolated to predict the longer-term impact of the Progresa program on schooling lifetime and earnings.

Source: Schultz, Paul. “School Subsidies for the Poor: Evaluating the Mexican Progresa Poverty Program.” Journal of Development Economics 74 (1): 199-250. 2004

Insert 3: Randomized assignment of spring water protection to improve health in Kenia

The link between water quality and health impacts in developing countries has been well documented. However, the health value of improving infrastructure around water sources is less evident. Kremer et al (2011) measured the effects of a program providing spring protection technology to improve water quality in Kenya, with random assignment of springs to receive the treatment.

Approximately 43 percent of households in rural Western Kenya obtain drinking water from natural springs. Spring protection technology seals off the source of a water spring to reduce contamination.

Starting in 2005, the NGO International Child Support (ICS) implemented a spring protection program in two districts in western Kenya. Because of financial and administrative constraints, ICS decided to phase in the program over four years. This allowed evaluators to use springs that had not received the treatment yet as the comparison group.

From the 200 eligible springs, 100 were randomly selected to receive the treatment in the first two years. The study found that spring protection reduced fecal water contamination by 66 percent and child diarrhea among users of the springs by 25%.

Source: Kremer, Michael, Jessica Leino, Edward Miguel, and Alix Peterson Zwane. “Spring Cleaning: Rural Water Impacts, Valuation, and Property Rights Institutions.” Quarterly Journal of Economics 126: 145-205. 2011

When can randomized assignment be used?

Randomized assignment can be used in one of the two scenarios as follows:

1. When the eligible population is greater than the number of program spaces available. When the demand for a program exceeds the supply, a lottery can be used to select the treatment group within the eligible population. The group that wins the “lottery” is the treatment group, and the rest of the population that is not offered the program becomes the comparison group. As long as a constraint exists that prevents scaling the program up to the entire population, the comparison groups can be maintained to measure the short-term, intermediate, and long-term impacts of the program.

2. When a program needs to be gradually phased in until it covers the entire eligible population. When a program is phased in, randomization of the order in which participants receive the program gives each eligible unit the same chance of receiving treatment in the first phase or in a later phase of the program. Until the last group joins the program, it serves as a valid comparison group from which the counterfactual for the groups that have already been phased in can be estimated. This setup also allows evaluating the effects of differential exposure to treatment: that is, the effect of receiving the program for a longer or shorter time.

Steps in randomized assignment

Step 1 — Define the units eligible for the program. Remember that depending on the particular program, a unit could be a person, a health center, a school, a business, or even an entire village or municipality.

Step 2 — Select a sample of units from the population to be included in the evaluation sample.

This second step is done mainly to limit data collection costs. If it is found that data from existing monitoring systems can be used for the evaluation, and that those systems cover the full population of eligible units, then a separate evaluation sample may not be needed.

Step 3 — Form the treatment and comparison groups from the units in the evaluation sample through randomized assignment.

Figure 4 shows the main steps of successfully implementing the randomized assignment method.

Once the above steps are completed, what remains is relatively simple. Once the program has run for some time, outcomes for both the treatment and comparison units will need to be measured. The impact of the program is simply the difference between the average outcome (Y) for the treatment group and the average outcome (Y) for the comparison group.

Randomized assignment is the most reliable method of evaluating counterfactual data and, to a certain extent, the gold standard in the field of impact evaluation.

Table 1. HISP Evaluation: Comparing the Treatment and Comparison Groups

Note: Significance level: ** = 1 percent.

Estimating the impact of HISP: randomized assignment

Let us now turn back to the estimation of the HISP pilot that involves 100 treatment villages.

Having conducted two impact evaluations using potentially biased counterfactuals (as mentioned above), the project team decided to obtain a more precise estimate — using randomized assignment. It was determined that building a valid estimate of the counterfactual will require identifying a group of villages that are identical to the 100 treatment villages in all respects. Since the 100 treatment villages were selected for HISP randomly from among all of the rural villages in the country, the treatment villages had the same characteristics as the general population of rural villages. All that was left to be done was to evaluate the difference between these two groups. Thus, data was collected on another 100 villages that were left out of the program.

Table 2 shows the average health expenditures of households in the comparison and treatment groups according to the same criteria. The pre-intervention average health expenditures of households in the two groups do not statistically differ, which is what’s expected with randomized assignment. Mathematical analysis showed that the outcome of the intervention was a reduction in household expenditures by USD 10.14 over two years.

Table 2. HISP Evaluation: Randomized Assignment

Note: Significance level: ** = 1 percent

Source: Paul J. Gertler, Sebastian Martinez, Patrick Premand, Laura B. Rawlings, and Christel M. J. Vermeersch. Impact Evaluation in
Practice Second Edition. — International Bank for Reconstruction and Development / The World Bank, 2016

Summing up, we would like to say that the use of rigorous evaluation methods and the regular collection and monitoring of data about a project or program represents the main set of tools that the parties involved can use to verify and improve the effectiveness and efficiency of social projects and programs at various implementation stages.

Elena Avramenko, expert of the project “Development of a Social and Economic Impact Assessment Model for NGOs” by the GLADWAY Foundation, Lean 6 Sigma Green Belt master

References: 1. Paul J. Gertler, Sebastian Martinez, Patrick Premand, Laura B. Rawlings, and Christel M. J. Vermeersch. Impact Evaluation in Practice Second Edition. — International Bank for Reconstruction and Development / The World Bank, 2016 2. Imbens, Guido W., and Donald B. Rubin. Rubin Causal Model. In The New Palgrave Dictionary of Economics, second edition, edited by Steven N. Durlauf and Lawrence E. Blume. Palgrave, 2008. 3. Rubin, Donald B. Estimating Causal Eff ects of Treatments in Randomized and Nonrandomized Studies. Journal of Educational Psychology 66 (5): 688–701, 1974. 4. Bertrand, Marianne, Bruno Crépon, Alicia Marguerie, and Patrick Premand. Impacts à Court et Moyen Terme sur les Jeunes des Travaux à Haute Intensité de Main d’oeuvre (THIMO): Résultats de l’évaluation d’impact de la composante THIMO du Projet Emploi Jeunes et Développement des compétence (PEJEDEC) en Côte d’Ivoire. Washington, DC: Banque Mondiale et Abidjan, BCP-Emploi. 2016. 5. Blattman, Christopher, Nathan Fiala, and Sebastian Martinez. “Generating Skilled Self-Employment in Developing Countries: Experimental Evidence from Uganda.” Quarterly Journal of Economics 129 (2): 697–752. doi: 10.1093/qje/qjt057. 6. Bruhn, Miriam, and David McKenzie. “In Pursuit of Balance: Randomization in Practice in Development Field Experiments.” American Economic Journal: Applied Economics 1 (4): 200–232. 2009. 7. Dupas, Pascaline. 2011. “Do Teenagers Respond to HIV Risk Information? Evidence from a Field Experiment in Kenya.” American Economic Journal: Applied Economics 3 (1): 1–34. 8. Glennerster, Rachel, and Kudzai Takavarasha. Running Randomized Evaluations: A Practical Guide. Princeton, NJ: Princeton University Press. Randomized Assignment 87, 2013. 9. Kremer, Michael, Jessica Leino, Edward Miguel, and Alix Peterson Zwane. “Spring Cleaning: Rural Water Impacts, Valuation, and Property Rights Institutions.” Quarterly Journal of Economics 126: 145–205. 2011. 10. Kremer, Michael, and Edward Miguel. “Worms: Identifying Impacts on Education and Health in the Presence of Treatment Externalities.” Econometrica 72 (1): 159–217. 2004. 11. Premand, Patrick, Oumar Barry, and Marc Smitz. “Transferts monétaires, valeur ajoutée de mesures d’accompagnement comportemental, et développement de la petite enfance au Niger. Rapport descriptif de l’évaluation d’impact à court terme du Projet Filets Sociaux.” Washington, DC: Banque Mondiale. 2016. 12. Schultz, Paul. “School Subsidies for the Poor: Evaluating the Mexican Progresa Poverty Program.” Journal of Development Economics 74 (1): 199–250. 2004.

DOI 10.55140/2782-5817-2022-2-2-68-81

Хочешь стать одним из более 100 000 пользователей, кто регулярно использует kiozk для получения новых знаний?
Не упусти главного с нашим telegram-каналом: https://kiozk.ru/s/voyrl

Авторизуйтесь, чтобы продолжить чтение. Это быстро и бесплатно.

Регистрируясь, я принимаю условия использования

Рекомендуемые статьи

Диета для похудения живота и боков: миф или реальность? Диета для похудения живота и боков: миф или реальность?

Что нужно делать, чтобы придать телу желаемые очертания?

Лиза
Как научиться любить себя: лучшие книги для саморазвития Как научиться любить себя: лучшие книги для саморазвития

Книги, которые помогут открыть себя заново

ТехИнсайдер
23 поразительных факта из окружающей жизни, которые мало кто знает 23 поразительных факта из окружающей жизни, которые мало кто знает

Некоторые факты, над которыми ненадолго зависаешь от удивления

Maxim
Врач назвала продукты, вызывающие старение кожи. Откажитесь от них, чтобы выглядеть моложе! Врач назвала продукты, вызывающие старение кожи. Откажитесь от них, чтобы выглядеть моложе!

Продукты, которые вызывают сухость кожи и преждевременные морщины

ТехИнсайдер
Срочный развод: самые короткие звездные браки, которые тебя удивят Срочный развод: самые короткие звездные браки, которые тебя удивят

Кто из знаменитостей побежал подавать на развод, едва утихли свадебные колокола

VOICE
Кто помешал Германии создать атомную бомбу Кто помешал Германии создать атомную бомбу

Отрывок из книги «Отряд отморозков» Сэма Кина

СНОБ
Насколько устарело наше будущее? | How Obsolete is Our Future? Насколько устарело наше будущее? | How Obsolete is Our Future?

Гипотезы об изменениях приоритетов муниципального управления

Позитивные изменения
10 фильмов с фильмами 10 фильмов с фильмами

Зачем многие режиссеры прятали внутри своих историей другие фильмы

Weekend
Сергей Карпищенко: «Есть люди болезненные и менее болезненные. Это зависит не только от состояния иммунитета, но и от климата, условий жизни, питания, и многих других причин» Сергей Карпищенко: «Есть люди болезненные и менее болезненные. Это зависит не только от состояния иммунитета, но и от климата, условий жизни, питания, и многих других причин»

Доктор наук отвечает на важные вопросы на тему оториноларингологии

Здоровье
Спирс, Джоли, Кен, рысь: на кого хотели быть похожи жертвы пластики Спирс, Джоли, Кен, рысь: на кого хотели быть похожи жертвы пластики

Эти люди спустили целые состояния на пластику

VOICE
При каких болезнях помогает коньяк? При каких болезнях помогает коньяк?

Коньяк невероятно полезен, нет никаких сомнений

Maxim
В Кении обнаружили олдованские орудия возрастом 2,6-3 миллиона лет В Кении обнаружили олдованские орудия возрастом 2,6-3 миллиона лет

Археологи обнаружили в Кении 330 олдованских каменных артефактов

N+1
Астрономы сфотографировали след дрейфующей сверхмассивной черной дыры Астрономы сфотографировали след дрейфующей сверхмассивной черной дыры

Могут ли сверхмассивные черные дыры дрейфовать вне своей галактики?

ТехИнсайдер
По суше, по морю, по льду: как древние люди стремились попасть в Америку и не погибнуть по пути По суше, по морю, по льду: как древние люди стремились попасть в Америку и не погибнуть по пути

В доисторические времена путешествие в Америку сулило множество опасностей

Вокруг света
Что такое шибари и стоит ли в это ввязываться Что такое шибари и стоит ли в это ввязываться

Что нужно знать, прежде чем браться за веревки?

Maxim
В ядре Земли идет странный кремниевый снег, который падает не вниз, а вверх В ядре Земли идет странный кремниевый снег, который падает не вниз, а вверх

Что находится внутри Земли?

ТехИнсайдер
8 школьных знаний, которые не пригождаются никогда в жизни 8 школьных знаний, которые не пригождаются никогда в жизни

Признайся, хоть раз тебе спасло жизнь умение отличить ямб от хорея?

Maxim
Весенний загар во Вьетнаме Весенний загар во Вьетнаме

Что нужно успеть увидеть и попробовать в этой экзотической стране за неделю

Лиза
Гриб на добрую память: «дедова борода» оказалась супероружием против Альцгеймера Гриб на добрую память: «дедова борода» оказалась супероружием против Альцгеймера

Лапша, борода и даже львиная грива — как только не называют этот диковинный гриб

Вокруг света
Не могу сказать «прости» Не могу сказать «прости»

Как правильно просить прощения?

Лиза
Mitsubishi ASX 2023. Первые впечатления Mitsubishi ASX 2023. Первые впечатления

На сцене появился совершенно новый Mitsubishi ASX, он же Renault Captur

4x4 Club
Врать будете? Врать будете?

Автор VOICE неделю говорила правду – и даже почти не устала

VOICE
«Девятая стадия из десяти возможных»: дядя Юра из «Спокойной ночи, малыши!» рассказал, как победил рак «Девятая стадия из десяти возможных»: дядя Юра из «Спокойной ночи, малыши!» рассказал, как победил рак

Юрий Григорьев смог победить онкологию на предпоследней стадии

VOICE
Свободная касса Свободная касса

Как стать фрилансером и не жалеть об этом каждый месяц

VOICE
Мал да удал: как выглядят актеры-карлики, которые покорили Голливуд Мал да удал: как выглядят актеры-карлики, которые покорили Голливуд

Наши герои не вышли ростом, но это не помешало им сделать карьеру

VOICE
Эпоха маркизы Помпадур: как фаворитка Людовика XV стала версальской Шахерезадой Эпоха маркизы Помпадур: как фаворитка Людовика XV стала версальской Шахерезадой

История фаворитки, вынудившей политиков всерьез рассуждать об эпохе Помпадур

Вокруг света
Все о куперозе: что делать с краснотой, сосудистыми звездочками и паутинкой на лице Все о куперозе: что делать с краснотой, сосудистыми звездочками и паутинкой на лице

Расспросили эксперта о причинах купероза, его лечении и профилактике

Правила жизни
Широкая Масленица Широкая Масленица

Самый традиционный славянский праздник!

Лиза
Злачное тесто: краткая история хлеба, который всему голова Злачное тесто: краткая история хлеба, который всему голова

Есть один продукт, который не приедается никогда

Вокруг света
Вам письмо: как компании увольняют сотрудников по электронной почте Вам письмо: как компании увольняют сотрудников по электронной почте

Добро пожаловать в эпоху цифровых уведомлений об увольнении

Forbes
Открыть в приложении