Cómo se siente un algoritmo desde adentro
” Si un árbol cae en el bosque y nadie lo escucha, ¿emite un sonido? ” Recuerdo haber visto un argumento real sobre este tema, un argumento totalmente ingenuo que no se acercaba al subjetivismo berkeleyano. Sólo:
“¡Hace un sonido, como cualquier otro árbol que cae!”
“Pero, ¿cómo puede haber un sonido que nadie escuche?”
La visión racionalista estándar sería que la primera persona está hablando como si “sonido” significara vibraciones acústicas en el aire; la segunda persona habla como si “sonido” significara una experiencia auditiva en un cerebro. Si preguntas “¿Hay vibraciones acústicas?” o “¿Hay experiencias auditivas?”, la respuesta es a la vez obvia. Y entonces el argumento es realmente sobre la definición de la palabra “sonido”.
Creo que el análisis estándar es esencialmente correcto. Así que aceptemos eso como premisa y preguntemos: ¿por qué la gente se mete en semejante argumento? ¿Cuál es la psicología subyacente?
Una idea clave del programa de heurística y sesgos es que los errores a menudo revelan más la cognición que las respuestas correctas. Entrar en una disputa acalorada sobre si, si un árbol cae en un bosque desierto, hace un sonido, tradicionalmente se considera un error.
Entonces, ¿qué tipo de diseño mental corresponde a ese error?
En Consultas disfrazadas, presenté la tarea de clasificación de blegg / rube, en la que Susan the Senior Sorter explica que su trabajo consiste en clasificar los objetos que salen de una cinta transportadora, poner los huevos azules o “bleggs” en un contenedor, y los cubos rojos o ” frota “en el cubo de basura. Resulta que esto se debe a que los bleggs contienen pequeñas pepitas de mineral de vanadio, y los rubes contienen pequeños fragmentos de paladio, los cuales son útiles industrialmente.
Excepto que alrededor del 2% de los objetos azules en forma de huevo contienen paladio. Entonces, si encuentras una cosa azul en forma de huevo que contiene paladio, ¿deberías llamarlo un “cubo”? Lo va a poner en el cubo de basura. ¿Por qué no llamarlo un “cubo”?
Pero cuando apaga la luz, casi todos los bleggs brillan débilmente en la oscuridad. Y los objetos con forma de huevo azul que contienen paladio tienen la misma probabilidad de brillar en la oscuridad que cualquier otro objeto con forma de huevo azul.
Entonces, si encuentra un objeto azul con forma de huevo que contiene paladio, y pregunta “¿Es un blegg?”, La respuesta depende de lo que tenga que hacer con la respuesta: Si pregunta “¿En qué contenedor va el objeto? “, entonces eliges como si el objeto fuera un cubo. Pero si pregunta “Si apago la luz, ¿brillará?”, Pronostica como si el objeto fuera un blegg. En un caso, la pregunta “¿Es un blegg?” representa la consulta encubierta, “¿En qué contenedor va?”. En el otro caso, la pregunta “¿Es un blegg?” representa la pregunta encubierta: “¿Brillará en la oscuridad?”
Ahora suponga que tiene un objeto que es azul y tiene forma de huevo y contiene paladio; y ya has observado que es peludo, flexible, opaco y brilla en la oscuridad.
Esto responde a cada consulta, observa cada observable introducido. No queda nada para una consulta encubierta .
Entonces, ¿por qué alguien podría sentir el impulso de seguir discutiendo si el objeto es realmente un blegg?

Este diagrama de Categorías neuronales muestra dos redes neuronales diferentes que podrían usarse para responder preguntas sobre bleggs y rubes. La red 1 tiene una serie de desventajas, como un comportamiento potencialmente oscilante / caótico, o que requieren conexiones O (N2), pero la estructura de la red 1 tiene una gran ventaja sobre la red 2: cada unidad en la red corresponde a una consulta comprobable. Si observa todos los observables, sujetando cada valor, no quedan unidades en la red.
La Red 2, sin embargo, es un candidato mucho mejor para ser algo vagamente similar a cómo funciona el cerebro humano: es rápido, barato, escalable y tiene una unidad colgante adicional en el centro, cuya activación aún puede variar, incluso después de haber observado cada uno de los nodos circundantes.
Es decir, incluso después de saber si un objeto es azul o rojo, huevo o cubo, peludo o liso, brillante u oscuro, y si contiene vanadio o paladio, parece que hay una pregunta sobrante, sin respuesta: ¿ pero es así? realmente un blegg?
Por lo general, en nuestra experiencia diaria, las vibraciones acústicas y la experiencia auditiva van juntas. Pero un árbol que cae en un bosque desierto separa esta asociación común. E incluso después de saber que el árbol que cae crea vibraciones acústicas pero no experiencia auditiva, parece que hay una pregunta que queda:
¿Ha hecho un sonido?
Sabemos dónde está Plutón y hacia dónde va; Conocemos la forma de Plutón y la masa de Plutón, pero ¿es un planeta?
Ahora recuerde: cuando mira la Red 2, como la he expuesto aquí, está viendo el algoritmo desde afuera. La gente no piensa para sí misma: “¿Debería la unidad central disparar o no?” más de lo que piensas “¿Debería la neurona # 12,234,320,242 en mi corteza visual dispararse, o no?”
Se necesita un esfuerzo deliberado para visualizar su cerebro desde afuera, y luego todavía no ve su cerebro real; imaginas lo que piensas que está ahí, con suerte basado en la ciencia, pero independientemente, no tienes acceso directo a las estructuras de redes neuronales desde la introspección. Es por eso que los antiguos griegos no inventaron la neurociencia computacional.
Cuando miras la Red 2, estás viendo desde afuera; pero la forma en que se siente la estructura de la red neuronal desde el interior, si usted mismo es un cerebro que ejecuta ese algoritmo, es que incluso después de conocer todas las características del objeto, todavía se encuentra preguntándose: “¿Pero es un blegg o no? ”
Esta es una gran brecha para cruzar, y he visto que detiene a la gente en su camino.
Debido a que no vemos instintivamente nuestras intuiciones como “intuiciones”, simplemente las vemos como el mundo. Cuando miras una taza verde, no piensas en ti mismo como si estuvieras viendo una imagen reconstruida en tu corteza visual, aunque eso es lo que estás viendo, solo ves una taza verde. Piensas: “Mira, esta copa es verde”, no, “La imagen en mi corteza visual de esta copa es verde”.
Y de la misma manera, cuando las personas discuten sobre si el árbol que cae hace un sonido, o si Plutón es un planeta, no se ven a sí mismas discutiendo si una categorización debería estar activa en sus redes neuronales. Parece que el árbol hace un sonido o no.
Sabemos dónde está Plutón y hacia dónde va; Conocemos la forma de Plutón y la masa de Plutón, pero ¿es un planeta? Y sí, hubo personas que dijeron que esto era una pelea por las definiciones, pero incluso eso es una especie de perspectiva de la Red 2, porque estás discutiendo sobre cómo debería estar conectada la unidad central. Si fueras una mente construida a lo largo de las líneas de la Red 1, no dirías “Depende de cómo definas ‘planeta'”, solo dirías: “Dado que conocemos la órbita, la forma y la masa de Plutón, no hay pregunta que queda por hacer “. O, más bien, así es como se sentiría , sentiría que no quedaba ninguna duda, si fuera una mente construida en la línea de la Red 1.
Antes de que puedas cuestionar tus intuiciones, debes darte cuenta de que lo que mira tu mente es una intuición, algún algoritmo cognitivo, visto desde adentro, en lugar de una percepción directa de la forma en que son realmente las cosas.
Creo que las personas se aferran a sus intuiciones, no tanto porque creen que sus algoritmos cognitivos son perfectamente confiables, sino porque no pueden ver sus intuiciones como la forma en que se ven sus algoritmos cognitivos desde adentro.
Y así, todo lo que intenta decir acerca de cómo el algoritmo cognitivo nativo se desvía, termina siendo contrastado con su percepción directa de la forma en que realmente son las cosas, y se descarta como obviamente erróneo.