Line: 

----

Title: Une complexité toujours croissante

----

Text: 

### Comportement Artificiel
Emmanuel Kant disait « La Nature agit, l’Homme fait. », mais on pourrait également dire ‘La nature agit, l’ordinateur fait’. Selon moi, la différence entre ‘faire’ et ‘agir’ réside dans la responsabilité impliquée ; ou du moins, il a question de volonté contrairement à ‘faire’ qui ne renvoie qu’à l’action pure et dure. Aujourd’hui, l’ordinateur ‘fait’ ce qu’on lui a instruit alors que « la Nature agit ». Mais si le numérique est basé sur l’organique, ne pourrait-on pas s’attendre à ce que ce modèle dispose un jour de capacités de réflexion permettant de prendre des responsabilités ? IBM essaye de résoudre ce problème en s’intéressant de plus près à notre cerveau. Ses chercheurs ont remarqué que la partie gauche de notre cerveau fonctionne comme un ordinateur traditionnel : il se focalise sur le langage et l’analyse alors que la partie droite nous sert à faire sens et à mettre en relation plusieurs sujets. Ils répondent avec une « intelligence de calcul holistique »[1. Traduction de l’anglais: «holistic computing intelligence» extrait de (ref: ibm-synaptic text: research.ibm.com).] qui donnerait à nos ordinateurs la capacité de la partie droite de notre cerveau.

### Apprentissage Machine
Au sujet de l’apprentissage machine[1. Traduction de l'anglais : machine learning.], il s’agit d’une branche activement développée en ce moment. Elle semble en tout cas s’orienter sur l’apprentissage de relations quelconques dans une base de données perceptible gigantesque. Accompagnée d’une fonction permettant de déterminer la pertinence de ces relations, elle résout par un nombre phénoménal de tentatives, et valorise la meilleure solution. C’est une méthode relativement brutale et gourmande en énergie qui me rappelle le ‘brute-force’, une technique de résolution de problèmes qui consiste à systématiquement tester chaque candidat possible et d’en évaluer sa pertinence.

Par exemple, (ref: deep-dream text: Google Deep Dream) est un algorithme qui simule un réseau de neurones. Il peut analyser une série d’images comportant toutes le même sujet. Les neurones apprennent alors les relations visuelles statistiques dans l’image pour par exemple repérer de nouvelles images contenant le même sujet. Mieux encore, il peut renforcer graphiquement l’apparence du sujet dans l’image, voire même le faire apparaitre là où il n’existe pas dans l’image. Le résultat graphique est pour le moins impressionnant.

(ref: ibm-synaptic text: IBM) a travaillé sur le même processus, mais en inventant une nouvelle architecture d’ordinateur, encore plus semblable à celle du cerveau humain, ce qui optimise la consommation énergétique par rapport à l’approche algorithmique de Google.
Dans une série d’articles sur des intelligences artificielles pouvant modifier leur code source[1. (ref: kory-becker text: )], Kory Becker parvient à créer un programme informatique capable de changer son comportement algorithmique jusque résoudre un problème très simple ; mais il est cependant obligé de garder une certaine base identique, non mutable, dont dépend la partie mutable.
À mon avis, ces méthodes d’apprentissage par analyse massive sont une découverte d’importance qui trouvera des applications, mais auront leurs restrictions. La nature aurait utilisé un moyen plus simple pour résoudre ces problèmes dans un souci d’efficacité et d’économie d’énergie.

### Enchaîner, combiner et imbriquer
Le modèle de production collectif mis en place grâce à internet fonctionne puisque le code informatique est très adapté au partage. Des plateformes de collaboration sophistiquées existent ((ref: github text: GitHub), SVN, Google Code, etc.). La programmation orientée objet a facilité l’agencement en ‘briques de code’ qui, une fois partagées à l’échelle mondiale, permettent de facilement les agencer de façon modulaire et ainsi de créer plus rapidement. 

### Complexité x Complexité = Complexité²
D’une part ces briques de code s’accumulent et se démultiplient ; des blocs de nature organique ou artificielle. La décomposition de notre réalité en ‘blocs’ nous a permis de mieux la comprendre et de mieux y évoluer, ainsi que cela nous a permis d’explorer des espaces numériques inconnus, mais nous avons encore du mal à comprendre l’intégralité de son fonctionnement et il reste énormément de terrain inexploré. À mon avis il y a encore un potentiel énorme.

D’autre part, ces parts de logiciels deviennent de plus en plus élaborées et ils (ref: deep-dream text: gagnent en autonomie). Cela nous mène à une complexification de l’espace numérique et ses comportements cognitifs face à laquelle une perte de contrôle consciente ou inconsciente se produit. On apprend les machines à apprendre, on leur fait exécuter des tâches intensément répétitives, on combine des comportements pour en créer d’autres, etc. Il devient parfois alors difficile de prévoir le résultat, et le chaos des nombres peut mener à de nouvelles relations esthétiques. C’est en ce sens que la pratique de l’art numérique prend une tournure expérimentale. 

La mise en place de ces systèmes, bien que très complexes, nous fait bénéficier de capacités d’adaptation et d’exécution phénoménales. Par sa capacité d’adaptation, j’entends sa rapidité de prototypage permise par son écriture simple et logique. Sa rapidité d’exécution permet ensuite de très rapidement simuler un ensemble de règles puis de les mettre en œuvre.

- Neural Networks [ McCulloch & Pitt ] [Google’s Deep Dream]
- Google Research Team: Inceptionism: Going Deeper into Neural Networks 
- Neuron networks

----

Transition: 