Техасский стрелок логическая ошибка

Ошибка меткого стрелка, или ошибка техасского стрелка, - распространенная ловушка мышления (когнитивное искажение), способное увести рассуждения совсем не в ту сторону. Как от этого избавиться?

Ошибка меткого стрелка: причина vs следствие


и

Психолог, гештальт-терапевт. Консультирует с 2015 года


  1. В чем ошибка меткого стрелка?
  2. Как бороться с этой ловушкой мышления?

Ошибка меткого стрелка, или как ее иногда называют, ошибка техасского стрелка, – интересное когнитивное искажение (ловушка мышления), которое находит достаточно частое «применение» в нашей жизни. Рассмотрим, в чем оно заключается и что с ним делать.

В чем ошибка меткого стрелка?

Название ошибки происходит от анекдота про техасца, который якобы сначала стрелял, а потом рисовал мишень вокруг стрел так, чтобы каждая была точно в яблочко. На практике данная ловушка мышления заключается в том, что, рассматривая какой-либо вопрос, мы принимаем во внимание только те факты, что вписываются в нашу теорию или объяснение происходящего, подходят нашим рассуждениям, а остальные отбрасываем. В более узком варианте – когда мы берем сходные данные, подходящие под некую закономерность, а те, что в нее не укладываются, игнорируем.

Другое когнитивное искажение, при котором рассмотрение только части данных приводит к неверным выводам и которое также часто встречается в реальной жизни, – систематическая ошибка выжившего.

Один из самых ярких примеров, иллюстрирующих ошибку стрелка, – предсказания. Постфактум из множества предсказаний одного или нескольких ясновидящих всегда можно найти несколько сбывшихся или почти сбывшихся – и за счет этого поверить в силу предсказателя: якобы он действительно знал будущее наперед. Или же можно подобрать к сказанным в прошлом метафорическим фразам такие «ключи», которые объяснят те или иные события – но лишь тогда, когда они уже произойдут.

Ошибка меткого стрелкаПочему провести «анализ» таких предсказаний можно только после того, как они свершатся? Потому что до этого вы просто не знаете, что и как именно интерпретировать, чтобы выстроить правдоподобное объяснение. Но по логике предсказания работают наоборот: они должны говорить о будущем, а не оправдываться, когда все уже произошло. Именно так мы и попадаем в ловушку мышления стрелка, который сначала стрелял, а потом рисовал мишень. Иными словами, мы меняем местами то, что должно быть до (предсказание, объясняющее будущее событие) и после (само событие), чтобы доказать теорию («Этот предсказатель знает будущее»).

Другой пример – нахождение взаимосвязи там, где ее нет. Например, популярно мнение, что високосные года тяжелее невисокосных. В подтверждение приводятся несчастья, которые случались в года, когда отмечается 29 февраля. Проблема только в том, что, к сожалению, и в другие года случается так же много несчастий. Но в «выборку» попадает только часть данных, остальные игнорируются.

Ошибка стрелка - ловушка мышленияВ целом эта ошибка рассказывает далеко не только о теориях заговора, предсказаниях или приметах. На самом деле аналогичное искажение может возникнуть как быту, так и на работе – в самых разных ситуациях, когда мы строим какую-либо теорию или выстраиваем взаимосвязь. Например, что окончание престижного вуза гарантирует получение высокооплачиваемой работы. Да, можно найти множество примеров, где это предположение сработало. Но также существует множество примеров, где оно не сработало. Таким образом, сам по себе диплом престижного вуза еще не гарант высокой зарплаты.

Аналогично для анализа проекта клиента и выстраивания стратегии работы можно взять только те статистические данные, которые впишутся в ваш план. А потом можно сказать, что достигнутые результаты – это и есть на самом деле то, чего вы хотели добиться (то есть нарисовать мишень вокруг стрелы).

Тренируйте память, внимание и другие софт-скиллс на Викиум.ру

Викиум

Что делать с ошибкой стрелка?

Прежде всего, стоит помнить, что когнитивные искажения возникают непредумышленно – поэтому они и называются ловушками мышления. Это особенность работы мозга, которую не всегда просто отследить. Однако данную ошибку, как и другие, можно исправить, если контролировать себя. Например, анализируя ту или иную теорию или причинно-следственную связь, старайтесь проверять себя – точно ли все факты рассмотрены? Все ли они вписываются в теорию? Если не все, то почему?

Как правило, чем больший эмоциональный отклик находит теория, тем чаще логика уходит на второй план, и мы подвластны большему количеству когнитивных искажений. Иными словами, если теория нам нравится, мы не доказываем ее, а стараемся подогнать под нее факты, игнорируя то, что грозится ее разрушить. Следите за причинно-следственной связью: сначала собирайте факты, потом стройте теорию, а не наоборот.

Как говорил Конан-Дойль устами Шерлока Холмса, «теоретизировать, не имея данных, значит совершать грубейшую ошибку. Незаметно для себя человек начинает подгонять факты к своей теории, вместо того чтобы строить теорию на фактах».

Также важно помнить два постулата:

  • если события А и Б произошли в одно и то же время, это еще не значит, что они связаны;
  • если Б произошло после А, это еще не значит, что А послужило причиной Б.

Нам свойственно выстраивать причинно-следственные связи, потому что это снижает уровень хаоса и повышает чувство контроля (в том числе тех вещей, которые мы контролировать априори не можем). Однако на самом деле некоторые события и факты – не более чем совпадения. О них расскажет и другая ошибка – ошибка игрока.


Поделиться статьей:


hero photo

Елена Лебедева

divider

Junior Business Analyst, кандидат экономических наук, методолог образовательных проектов

«Понимание человека, когда он уже пришёл к какой-то мысли… притягивает все вещи для её поддержки и согласования с ней. И хотя существует большое количество и вес аргументов с другой стороны, ими он пренебрегает или презирает, или по каким-то признакам отставляет или отвергает…»

Ф. Бэкон

«Мы говорим совершенно на разных языках!» — такое полное возмущения восклицание можно услышать в повседневном диалоге, когда одна сторона кажется полностью глухой к доводам и аргументам другой стороны. Особенно раздражает, когда собеседник интерпретирует все факты таким образом, чтобы подтвердить только собственные убеждения. Но не торопитесь браться за топор коммуникационной войны, возможно, вы столкнулись с когнитивным искажением — ошибкой техасского стрелка.

Оно получило своё название из анекдота про техасца, который сначала стрелял по амбару, а потом рисовал мишень в том месте, где было больше всего пробоин.

Ошибка техасского стрелка — это частный случай когнитивного искажения, которое связано со склонностью людей подтверждать свою точку зрения. Оно вызвано предрасположенностью человека воспринимать только ту информацию, которая поддерживает и подтверждает его убеждения. Все остальные факты, которые ставят его точку зрения под сомнение или опровергают её, он игнорирует или оспаривает.

Как проявляется это когнитивное искажение

Если у человека есть склонность к подтверждению, обычно он воспринимает информацию по определённому алгоритму:

  • ищет и изучает только ту информацию, которая подкрепляет существующее мнение;
  • интерпретирует факты таким образом, чтобы они поддерживали его точку зрения;
  • запоминает только «нужные» факты и не обращает внимания на то, что противоречит его убеждениям.

Таким образом, человек с этим когнитивным искажением воспринимает только те факты, которые соответствуют его «мишени». Часто он связывает между собой совершенно несвязанные события.

Ключевую роль играет накопленный опыт и эмоциональный отклик на ситуацию: чем больше эмоций, тем меньше логики. Ведь если нам что-то очень нравится (человек, технология, мысль) в силу каких-либо причин, мы будем всячески это защищать, подбирая только аргументы за.

Примеры проявления ошибки техасского стрелка:

  • Ваш коллега абсолютно уверен, что использование технологии Х оправдано в любой ситуации. Ваши попытки привести контраргументы и убедить коллегу в обратном заканчиваются конфликтами.
  • Руководитель уверен, что команда показывает плохие результаты, потому что подчиненные недостаточно умные и компетентные. Попытки подсветить другие причины (организационного, технического или иного характера) он воспринимает в штыки или игнорирует.
  • Заказчик хочет получить не объективный анализ текущего положения дел, а подтверждение своей точки зрения на сложившуюся ситуацию. Честный и объективный анализ, который идёт вразрез с мнением заказчика, будет восприниматься как дилетантство.
  • При работе с заказчиком учитываются только те данные и аналитическая информация, которые соответствуют его запросу и коммерческому предложению, а достигнутые результаты трактуются как желаемые.

Примечательно, что ошибка техасского стрелка часто встречается в различного рода исследованиях, в том числе научных. Например, некая компания Х проводит испытания своего продукта. Но в рекламную кампанию попадут только те результаты, которые подтверждают положительные свойства продукта, а все остальные данные останутся за кадром.

Из-за этой ошибки мышления человек иногда специально ведёт себя определенным образом, чтобы получить «нужный» результат и пополнить свою копилку искаженных фактов. Например, некорректно используя какой-либо фреймворк, он будет каждый раз убеждаться в том, что этот фреймворк «не работает».

Ошибка техасского стрелка мешает принимать взвешенные решения и профессионально развиваться, потому что из-за этой ошибки мышления:

  • игнорируются новые инструменты и технологии;
  • принимаются неэффективные управленческие решения;
  • возникают сложности коммуникаций в команде.

Люди, подверженные этому когнитивному искажению, не всегда готовы вести конструктивный диалог и прислушиваться к мнению со стороны. Им гораздо проще продолжать жить со старым убеждением, чем встать на тропу изменений.

Признавать неправоту сложно, потому что это заставляет меняться:

  • изучать информацию, которая находится за пределами существующего убеждения, анализировать ее, формировать новое суждение (например, начать изучать и применять новую технологию);
  • менять свое поведение и работать над собой (например, когда человек осознает, что он сам был источником проблемы); нести ответственность за свои поступки;
  • переосмысливать парадигму сложившейся картины мира, если искажение сильно повлияло на человека.

Но, как вы знаете, наш мозг очень не любит тратить энергию и всячески пытается ее сберечь, поэтому от этого искажения особенно сложно избавиться.

Что делать, если вы столкнулись с ошибкой техасского стрелка

В зависимости от цели коммуникации можно выбрать разные стратегии: от осознанного поддержания правоты человека до избегания общения с ним по спорному вопросу. В ситуации, когда нужно прийти к общему знаменателю, можно попробовать следующие приёмы:

  • Попросите собеседника изложить своё понимание ситуации. После этого задайте наводящие вопросы, которые подсветят неточность суждений собеседника и помогут ему как бы самому прийти к другой точке зрения.
  • Попросите собеседника поставить себя на место человека с другой точкой зрения. Это позволит найти компромиссное решение.

Эти приёмы могут сработать, если собеседник изначально настроен на конструктивный диалог. Если он не готов к подобным беседам, можно попробовать договориться сделать что-то вместе, например, использовать инструмент Х на проекте. Тогда личным примером можно показать, как это работает на практике, и изменить мнение у оппонента.

Если вы заметили такое искажение у себя, мои поздравления! Вы явно способны к самоанализу и саморазвитию. Вы на правильном пути.


Когнитивные искажения не существуют сами по себе. Они часть целого механизма восприятия и обработки информации, который работает в конкретных социально-экономических условиях и определен жизненным опытом конкретного человека. Поэтому стоит рассматривать проявления ошибки техасского стрелка вместе с ситуацией, в которой оно возникло, и особенностями человека, который подвержен этому искажению.

В следующих статьях мы продолжим разбирать когнитивные искажения с примерами из IT.

Ошибка техасского стрелка

В своих суждениях человек нередко совершает ошибку техасского стрелка. Использование данной логической уловки подразумевает, что Ваш собеседник в разрозненных частях информации будет стараться находить некую систему, которая якобы объединяет информацию, делая её соотвественно целостной и правдоподобной.

В методологии ошибка техасского стрелка — термин, описывающий заблуждение, при котором человек путает причину со следствием.

Схожее заблуждение встречается, когда демагогом берутся лишь те данные, которые соответствуют полученным выводам. 

Эта логическая уловка основана на истории (в некоторых источниках указывается, что это — всего лишь анекдот) о техасском стрелке, который стрелял из револьвера по стене амбара, а затем подошёл к ней и нарисовал вокруг дырок от пуль мишени, чтобы всё выглядело так, будто он каждый раз попадал точно в цель. Это нередко используется в гипотезах.

По правилам научного метода сначала нужно выдвинуть гипотезу, а потом собрать данные, чтобы её проверить — а не подстроить свою гипотезу под уже имеющиеся данные так, чтобы она казалась правдоподобной. 

Человеческий мозг рисует такие мишени очень часто. Когда мы не в силах что-то объяснить логически, мы сразу начинаем рисовать мишени, другими словами, ищем удивительные совпадения там, где их нет.

Известный пример — толкования катренов Нострадамуса.

В современных толкованиях катрены часто весьма вольно переводят со старофранцузского, опуская исторический контекст, а затем говорят, что в них предсказано некое современное уже произошедшее событие. Например, строчки Нострадамуса, якобы предсказавшие 11 сентября, взяты из трёх разных не связанных между собой катренов, а четвёртая строчка и вовсе выдумана.

Анализируя ситуацию, Вы сумеете разглядеть элемент случайности там, где Вам хотели навязать «знаки судьбы».

Данная уловка работает потому, что люди склонны хвататься за первые проблески смысла, не думая о факторе случайности. Но когда Вы чему-то придаёте значение, не забывайте, что это всего лишь порождение чьего-то ума.

Распознать такую уловку бывает крайне тяжело. Прежде чем обвинять собеседника в чём-либо, нужно объективно оценить информацию и, если есть возможность, тщательно её проверить.

«Техасский стрелок» чаще всего используется в пользу идеи, что мир был создан неким разумным творцом. Сторонники этой идеи заявляют, что шансы того, что молекула белка появилась «случайно», или клетки появились «случайно», или то, что Вселенная появилась «случайно», невероятно малы, а значит, наш мир был кем-то создан.

Эта уловка использует наш мир (то есть данные) для того, чтобы вывести из него удобную гипотезу, но гипотеза ошибочна ещё и потому, что в мире нет ничего случайного: процессы физики, химии и биологии крайне упорядочены. 

From Wikipedia, the free encyclopedia

The Texas sharpshooter fallacy is an informal fallacy which is committed when differences in data are ignored, but similarities are overemphasized. From this reasoning, a false conclusion is inferred.[1] This fallacy is the philosophical or rhetorical application of the multiple comparisons problem (in statistics) and apophenia (in cognitive psychology). It is related to the clustering illusion, which is the tendency in human cognition to interpret patterns where none actually exist.

The name comes from a joke about a Texan who fires some gunshots at the side of a barn, then paints a shooting target centered on the tightest cluster of hits and claims to be a sharpshooter.[2][3][4]

Structure[edit]

A set of 100 randomly generated coordinates displayed on a scatter graph. Examining the points it is easy to identify apparent patterns. In particular, random data points do not spread out but cluster, giving the impression of «hot spots» created by some underlying cause.

The Texas sharpshooter fallacy often arises when a person has a large amount of data at their disposal but only focuses on a small subset of that data. Some factor other than the one attributed may give all the elements in that subset some kind of common property (or pair of common properties, when arguing for correlation). If the person attempts to account for the likelihood of finding some subset in the large data with some common property by a factor other than its actual cause, then that person is likely committing a Texas sharpshooter fallacy.

The fallacy is characterized by a lack of a specific hypothesis prior to the gathering of data, or the formulation of a hypothesis only after data have already been gathered and examined.[5] Thus, it typically does not apply if one had an ex ante, or prior, expectation of the particular relationship in question before examining the data. For example, one might, prior to examining the information, have in mind a specific physical mechanism implying the particular relationship. One could then use the information to give support or cast doubt on the presence of that mechanism. Alternatively, if additional information can be generated using the same process as the original information, one can use the original information to construct a hypothesis, and then test the hypothesis on the new data. (See hypothesis testing.) What one cannot do is use the same information to construct and test the same hypothesis (see hypotheses suggested by the data)—to do so would be to commit the Texas sharpshooter fallacy.

Examples[edit]

A Swedish study in 1992 tried to determine whether power lines caused some kind of poor health effects.[6] The researchers surveyed people living within 300 meters of high-voltage power lines over 25 years and looked for statistically significant increases in rates of over 800 ailments. The study found that the incidence of childhood leukemia was four times higher among those who lived closest to the power lines, and it spurred calls to action by the Swedish government.[7] The problem with the conclusion, however, was that the number of potential ailments, i.e., over 800, was so large that it created a high probability that at least one ailment would exhibit the appearance of a statistically significant difference by chance alone, a situation known as the multiple comparisons problem. Subsequent studies failed to show any association between power lines and childhood leukemia.[8]

The fallacy is often found in modern-day interpretations of the quatrains of Nostradamus. Nostradamus’s quatrains are often liberally translated from the original (archaic) French, stripped of their historical context, and then applied to support the conclusion that Nostradamus predicted a given modern-day event after the event actually occurred.[9]

See also[edit]

  • Anthropic principle – Philosophical principle about the occurrence of sapient life in the Universe
  • Availability heuristic – Heuristic bias that if something can be recalled, it must be important
  • Confirmation bias – Bias confirming existing attitudes
  • HARKing – Acronym for «Hypothesizing after the results are known»
  • Look-elsewhere effect
  • Overfitting – Flaw in machine learning computer model
  • Postdiction – Explanations given after the fact
  • Ramsey theory – Branch of mathematical combinatorics
  • Scan statistic

[edit]

  • Correlative-based fallacies – Informal fallacies based on correlative conjunctions
  • Cum hoc ergo propter hoc – Refutation of a logical fallacy
  • Post hoc ergo propter hoc – Fallacy of assumption of causality based on sequence of events

References[edit]

  1. ^ Bennett, Bo, «Texas sharpshooter fallacy», Logically Fallacious, retrieved 21 October 2014, description: ignoring the difference while focusing on the similarities, thus coming to an inaccurate conclusion
  2. ^ Barry Popik (2013-03-09). «Texas Sharpshooter Fallacy». barrypopik.com. Retrieved 2015-11-10.
  3. ^ Atul Gawande (1999-08-02). «The cancer-cluster myth» (PDF). The New Yorker. Retrieved 2009-10-10.
  4. ^ Carroll, Robert Todd (2003). The Skeptic’s Dictionary: a collection of strange beliefs, amusing deceptions, and dangerous delusions. John Wiley & Sons. p. 375. ISBN 0-471-27242-6. Retrieved 2012-03-25. The term refers to the story of the Texan who shoots holes in the side of a barn and then draws a bull’s-eye around the bullet holes
  5. ^ Thompson, William C. (July 18, 2009). «Painting the target around the matching profile: the Texas sharpshooter fallacy in forensic DNA interpretation». Law, Probability, & Risk. 8 (3): 257–258. doi:10.1093/lpr/mgp013. Retrieved 2012-03-25. Texas sharpshooter fallacy…this article demonstrates how post hoc target shifting occurs and how it can distort the frequency and likelihood ratio statistics used to characterize DNA matches, making matches appear more probative than they actually are.
  6. ^ Feychting, M.; Ahlbom, A. (1993-10-01). «Magnetic fields and cancer in children residing near Swedish high-voltage power lines». American Journal of Epidemiology. 138 (7): 467–481. doi:10.1093/oxfordjournals.aje.a116881. ISSN 0002-9262. PMID 8213751.
  7. ^ Coghlan, Andy. «Swedish studies pinpoint power line cancer link». New Scientist.
  8. ^ «Frontline: previous reports: transcripts: currents of fear». PBS. 1995-06-13. Archived from the original on 2016-02-03. Retrieved 2012-07-03.
  9. ^ «Nostradamus Predicted 9/11?». snopes.com. Retrieved 2012-07-03.

External links[edit]

  • Fallacy files entry

From Wikipedia, the free encyclopedia

The Texas sharpshooter fallacy is an informal fallacy which is committed when differences in data are ignored, but similarities are overemphasized. From this reasoning, a false conclusion is inferred.[1] This fallacy is the philosophical or rhetorical application of the multiple comparisons problem (in statistics) and apophenia (in cognitive psychology). It is related to the clustering illusion, which is the tendency in human cognition to interpret patterns where none actually exist.

The name comes from a joke about a Texan who fires some gunshots at the side of a barn, then paints a shooting target centered on the tightest cluster of hits and claims to be a sharpshooter.[2][3][4]

Structure[edit]

A set of 100 randomly generated coordinates displayed on a scatter graph. Examining the points it is easy to identify apparent patterns. In particular, random data points do not spread out but cluster, giving the impression of «hot spots» created by some underlying cause.

The Texas sharpshooter fallacy often arises when a person has a large amount of data at their disposal but only focuses on a small subset of that data. Some factor other than the one attributed may give all the elements in that subset some kind of common property (or pair of common properties, when arguing for correlation). If the person attempts to account for the likelihood of finding some subset in the large data with some common property by a factor other than its actual cause, then that person is likely committing a Texas sharpshooter fallacy.

The fallacy is characterized by a lack of a specific hypothesis prior to the gathering of data, or the formulation of a hypothesis only after data have already been gathered and examined.[5] Thus, it typically does not apply if one had an ex ante, or prior, expectation of the particular relationship in question before examining the data. For example, one might, prior to examining the information, have in mind a specific physical mechanism implying the particular relationship. One could then use the information to give support or cast doubt on the presence of that mechanism. Alternatively, if additional information can be generated using the same process as the original information, one can use the original information to construct a hypothesis, and then test the hypothesis on the new data. (See hypothesis testing.) What one cannot do is use the same information to construct and test the same hypothesis (see hypotheses suggested by the data)—to do so would be to commit the Texas sharpshooter fallacy.

Examples[edit]

A Swedish study in 1992 tried to determine whether power lines caused some kind of poor health effects.[6] The researchers surveyed people living within 300 meters of high-voltage power lines over 25 years and looked for statistically significant increases in rates of over 800 ailments. The study found that the incidence of childhood leukemia was four times higher among those who lived closest to the power lines, and it spurred calls to action by the Swedish government.[7] The problem with the conclusion, however, was that the number of potential ailments, i.e., over 800, was so large that it created a high probability that at least one ailment would exhibit the appearance of a statistically significant difference by chance alone, a situation known as the multiple comparisons problem. Subsequent studies failed to show any association between power lines and childhood leukemia.[8]

The fallacy is often found in modern-day interpretations of the quatrains of Nostradamus. Nostradamus’s quatrains are often liberally translated from the original (archaic) French, stripped of their historical context, and then applied to support the conclusion that Nostradamus predicted a given modern-day event after the event actually occurred.[9]

See also[edit]

  • Anthropic principle – Philosophical principle about the occurrence of sapient life in the Universe
  • Availability heuristic – Heuristic bias that if something can be recalled, it must be important
  • Confirmation bias – Bias confirming existing attitudes
  • HARKing – Acronym for «Hypothesizing after the results are known»
  • Look-elsewhere effect
  • Overfitting – Flaw in machine learning computer model
  • Postdiction – Explanations given after the fact
  • Ramsey theory – Branch of mathematical combinatorics
  • Scan statistic

[edit]

  • Correlative-based fallacies – Informal fallacies based on correlative conjunctions
  • Cum hoc ergo propter hoc – Refutation of a logical fallacy
  • Post hoc ergo propter hoc – Fallacy of assumption of causality based on sequence of events

References[edit]

  1. ^ Bennett, Bo, «Texas sharpshooter fallacy», Logically Fallacious, retrieved 21 October 2014, description: ignoring the difference while focusing on the similarities, thus coming to an inaccurate conclusion
  2. ^ Barry Popik (2013-03-09). «Texas Sharpshooter Fallacy». barrypopik.com. Retrieved 2015-11-10.
  3. ^ Atul Gawande (1999-08-02). «The cancer-cluster myth» (PDF). The New Yorker. Retrieved 2009-10-10.
  4. ^ Carroll, Robert Todd (2003). The Skeptic’s Dictionary: a collection of strange beliefs, amusing deceptions, and dangerous delusions. John Wiley & Sons. p. 375. ISBN 0-471-27242-6. Retrieved 2012-03-25. The term refers to the story of the Texan who shoots holes in the side of a barn and then draws a bull’s-eye around the bullet holes
  5. ^ Thompson, William C. (July 18, 2009). «Painting the target around the matching profile: the Texas sharpshooter fallacy in forensic DNA interpretation». Law, Probability, & Risk. 8 (3): 257–258. doi:10.1093/lpr/mgp013. Retrieved 2012-03-25. Texas sharpshooter fallacy…this article demonstrates how post hoc target shifting occurs and how it can distort the frequency and likelihood ratio statistics used to characterize DNA matches, making matches appear more probative than they actually are.
  6. ^ Feychting, M.; Ahlbom, A. (1993-10-01). «Magnetic fields and cancer in children residing near Swedish high-voltage power lines». American Journal of Epidemiology. 138 (7): 467–481. doi:10.1093/oxfordjournals.aje.a116881. ISSN 0002-9262. PMID 8213751.
  7. ^ Coghlan, Andy. «Swedish studies pinpoint power line cancer link». New Scientist.
  8. ^ «Frontline: previous reports: transcripts: currents of fear». PBS. 1995-06-13. Archived from the original on 2016-02-03. Retrieved 2012-07-03.
  9. ^ «Nostradamus Predicted 9/11?». snopes.com. Retrieved 2012-07-03.

External links[edit]

  • Fallacy files entry

8 главных логических ошибок — Списки на Look At Me

Как размышляют сторонники псевдонауки

  • Гриша Пророков, 16 февраля 2015
  • 134560

8 главных логических ошибок. Изображение № 1.

Псевдонаучные идеи становятся всё популярнее. Люди выступают с сомнительными аргументами против теории эволюции, глобального потепления, использования ГМО и так далее — и их ошибочные доводы нередко воспринимаются всерьёз. Look At Me собрал ряд логических ошибок и уловок, которые чаще всего встречаются в антинаучных спорах. Знания об этих ошибках необязательно использовать для победы в споре, а можно использовать для того, чтобы лучше рассуждать самому.

8 главных логических ошибок. Изображение № 2.

Чучело

Простейшая логическая уловка, которую, как и всё в этом списке, не всегда используют намеренно. Работает примерно так: один из участников спора искажает утверждение оппонента, заменяя его на похожее, но менее логичное. Смысл утверждения меняется, и его легче оспорить. Использовать эту уловку — как побороть чучело человека, а потом заявить, что вы сражались с кем-то живым.

Пример:

Чаще всего с помощью «чучела» оспаривают теорию эволюции — искажая её или попросту исключая из неё важные составляющие. Скажем, её противники задают вопрос: «Если человек произошёл от обезьян, то почему обезьяны до сих пор существуют?», подразумевая, что эволюция организма отменяет все предыдущие ступени. На этот вопрос невозможно ответить. Совершается сразу несколько подмен: что эволюция завершилась, что человек произошёл от современных обезьян, наконец, что эволюция происходит линейно — и когда одно животное эволюционирует из другого, предыдущая ступень просто исчезает.

8 главных логических ошибок. Изображение № 3.

Ложная дилемма

Ошибка в логическом рассуждении, когда исключаются какие-либо возможности, кроме двух рассматриваемых. Проще говоря, мир делится на чёрное и белое. Обычно одна возможность называется логически ложной или просто неприемлемой, остаётся только вторая — в пользу которой и делается выбор. «Ты либо гранж, либо кислотник. Ты не похож на гранжа, так что точно кислотник!»

Пример:

Такое противопоставление нередко используется как аргумент в пользу религии: либо бог существует, либо в жизни нет никакого смысла и нравственности. Здесь исключаются любые источники смысла и морали, кроме религиозных. Или, например: вы либо верите в астрологию, либо у вас зашоренный ум. Исключается возможность, что человек может быть открыт к новым идеям, но при этом взвешивает все за и против, а в пользу астрологии существует мало аргументов.

8 главных логических ошибок. Изображение № 4.

Ложное равенство

Это заключение равенства между двумя субъектами (или, например, идеями) из ограниченного набора качеств, которыми они оба действительно обладают — но из которых совсем не следует равенство. Скажем, если кошки и собаки — мягкие, пушистые домашние животные, никакой разницы между ними нет. В случае с идеями эта ошибка работает чуть хитрее — когда равноценно рассматриваются две точки зрения, одна из которых ощутимо логичнее другой.

Пример:

Это используется даже не в качестве аргумента, а как повод вообще начать спор. Например, журналисты устраивают дебаты между уважаемым учёным и сумасшедшим, пытаясь рассмотреть две точки зрения на одну проблему, не принимая при этом во внимание, что между этими точками зрения не может быть равенства. Look At Me уже писал про 8 научных споров, которые давно должны закончиться, но продолжаются из-за ложного равенства; например, потому что люди считают, что аргументы против использования ГМО такие же весомые, как аргументы за.

8 главных логических ошибок. Изображение № 5.

Эпизодические свидетельства

Несмотря на важность этого термина, в русском языке у него нет адекватного перевода, но мы имеем в виду anecdotal evidence — анекдотические данные и доказательства, когда утверждение основывается на обрывочных, единичных случаях. В мире псевдонауки эпизодические свидетельства являются аналогом доказательств, полученных в результате эксперимента (которые, напомним, должны проверяться учёными и неоднократно повторяться). Например, вы говорите: «Мой дядюшка Билли-Боб ел по 3 кг яблок в день на протяжении года и его раковая опухоль исчезла!» и делаете вывод, что яблоки побеждают рак.

Пример:

Все аргументы против использования ГМО в пище на данный момент основаны исключительно на эпизодических свидетельствах. Исследования, заявляющие, что ГМО вызывает рак, аутизм, проблемы с печенью и другие заболевания, не подтверждены никакими доказательствами. Другой пример: все свидетельства в пользу того, что гомеопатия работает не только как плацебо, исключительно эпизодические — наука говорит о другом. 

8 главных логических ошибок. Изображение № 6.

Техасский стрелок

Эта логическая уловка основана на истории о техасском стрелке, который стрелял из револьвера по стене амбара, а затем подошёл к ней и нарисовал вокруг дырок от пуль мишени — чтобы всё выглядело так, будто он каждый раз попадал точно в цель. Это нередко используется в гипотезах. По правилам научного метода сначала нужно выдвинуть гипотезу, а потом собрать данные, чтобы её проверить — а не подстроить свою гипотезу под уже имеющиеся данные так, чтобы она казалась правдоподобной.

Пример:

«Техасский стрелок» чаще всего используется в пользу идеи, что мир был создан неким разумным творцом. Сторонники этой идеи заявляют, что шансы того, что молекула белка появилась «случайно», или клетки появились «случайно», или вообще что Вселенная появилась «случайно», невероятно малы — а значит, наш мир был кем-то создан. Этот довод просто использует наш мир (то есть данные) для того, чтобы вывести из него удобную гипотезу, но он ошибочен ещё и потому, что в мире нет ничего случайного: процессы физики, химии и биологии крайне упорядочены.

8 главных логических ошибок. Изображение № 7.

Воззвание
к последствиям

Аргумент, выходящий за рамки логики — и именно поэтому с точки зрения логики совершенно недопустимый. Смысл в том, чтобы предсказать некие ужасные последствия той или иной идеи и сделать вывод, что эта идея ошибочна или просто аморальна. Что-то в духе «красный цвет повышает агрессию, а значит, людям нужно перестать ездить на красных машинах, иначе мы все переубиваем друг друга!»

Пример:

Этот приём используется крайне просто: «гомосексуальность нужно объявить заболеванием, потому что иначе перестанут рождаться дети и человечество вымрет». Или ещё хуже: теория эволюции — ложная, потому что если мы все в неё поверим, это приведёт к развитию евгеники, генетическим экспериментам и — вы угадали — вымиранию человечества.

8 главных логических ошибок. Изображение № 8.

Преклонение перед природным

Формально это не совсем логическая ошибка, но распространённый аргумент на стороне псевдонауки: преклонение перед всем «природным», «натуральным» и «естественным». Что именно считается естественным в каждом случае — очень субъективно: от использования целебных трав вместо таблеток до исключительно «органической» пищи. Иногда из этого первенства воображаемой природы делаются серьёзные выводы, например, этические: человек не должен играть в бога и экспериментировать с наукой, не нужно нарушать естественный ход вещей.

Пример:

Самый яркий пример — это, пожалуй, борьба с ГМО как с чем-то «противоестественным»; всем же понятно, что огурчики должны быть только свои, родные, с грядки. Этот же аргумент приводится, скажем, и в борьбе с гомосексуальностью — как с чем-то, будто бы нарушающим естественный ход вещей.

8 главных логических ошибок. Изображение № 9.

Доказательство
из ошибки

Напоследок напомним, что все эти ошибки приводятся не для того, чтобы вы могли победить в любом споре — но для того, чтобы следить за своими собственными рассуждениями. Последняя ошибка выводится из всех перечисленных. Доказательство из ошибки — это когда вы делаете вывод о ложности идеи из-за того, что в аргументе в её пользу есть какая-то ошибка. Хотя на самом деле идея всё равно может оказаться правильной — хотя бы по чистой случайности. Например, вот такой довод: «В мире существуют только рыжие и брюнеты. Илон Маск — не рыжий, соответственно он брюнет». Тут допущена логическая ошибка (ложная дихотомия), но вывод из неё всё равно сделан правильный.

Пример:

Лучше всего проиллюстрировать эту ошибку не антинаучным примером, а наоборот — антирелигиозным. Несмотря на то что существование бога чаще всего выводится с помощью «техасского стрелка», из одной этой ошибки нельзя сделать вывод, что бога не существует, хотя многие атеисты поступают именно так.

фотографии via Shutterstock ( 1, 2, 3 ), Torsten Reuschling, Fox, NASA Goddard Space Flight Center, Danil Volozhanin, ho! Branding agency, Sergey Shishkin, All Design Transparent (ADESTRA), Anastasia Yakovleva, First Sense

Понравилась статья? Поделить с друзьями:
  • Тесто для пельменей жидкое как исправить
  • Тетралогия ошибка резидента скачать торрент
  • Тетрадь для работ над ошибками
  • Тесто для медовика рассыпается как исправить
  • Тестораскаточная машина рвет тесто как исправить