¿Qué tan efectivo es imitar la naturaleza cuando diseñamos máquinas? ¿Funcionará mejor un nuevo enfoque orientado a la máquina?

El problema con la estrategia de biomimética es que hay una excesiva cantidad de enfoque en los ‘mecanismos’. Esencialmente centrado demasiado en el ‘qué está pasando’ frente al ‘por qué está pasando esto’. En mi opinión, tratar de desarrollar modelos de inteligencia computacional basados ​​en el cerebro humano es bastante ridículo cuando ni siquiera podemos desarrollar inteligencia computacional que imite el cerebro de una mosca de la fruta. Podemos programar reglas, estrategias, etc. pero aún no llegan a la raíz de qué modelo explica cómo la información sensorial se manifiesta como un comportamiento complejo.

Describiría el aprendizaje automático en su estado actual como ‘hazañas matemáticas útiles’. Avanzando en la dirección correcta con la investigación de ML más activa centrada en las redes neuronales (y sus derivados)

Todavía nos falta una teoría abstracta de la inteligencia. Mi opinión personal es que una vez que se resuelve el problema, los mecanismos (por ejemplo, el cambio en la carga química de la recaptación de neurotransmisores para causar un potencial de acción neuronal) ya no importan.

Creo firmemente que los investigadores de IA deberían primero intentar copiar la mente humana antes de intentar diseñar sus propios modelos. La mente no solo funciona, funciona bien. Es un excelente candidato para la emulación. Los nuevos enfoques de aprendizaje, por ejemplo, el aprendizaje automático basado en estadísticas, pueden o no ser viables (probablemente lo harán), pero para mí es mucho más fácil copiar que inventar.