Alexandre de Brevern - Thèse de Bioinformatique Moléculaire


Prochain: Dépendance entre les blocs Au-dessus: Prédiction de la structure Précédent: Stratégie locale

   
Conclusion


 \begin{sidewaysfigure}% latex2html id marker 2527
[htbp]
\centerline{\epsfxsize...
...e information
est directement utilisée par la prédiction.}
\end{sidewaysfigure}

La figure 4.13 récapitule l'ensemble du processus bayésien mis en place. Dans un premier temps, les séquences ont été directement utilisées en donnant un taux de prédiction plus que convenable de 34,4 % pour 16 états possibles. La définition des familles séquentielles (1 bloc $\rightarrow$ n séquences), permet à la fois un gain global de prédiction et une homogénéisation des taux de prédiction des blocs en conservant une homogénéité structurale des blocs protéiques. L'augmentation du taux de prédiction est significatif avec un passage de 34,4 à 40,7 %.

La succession d'une certaine série d'acides aminés n'obligent pas un seul type de repliements [186], mais notre approche permet de voir que cette succession induit un certain type de repliement qui peut être particulièrement bien caractérisé. La disposition préférentielle des blocs réels parmi les blocs les plus probables a permis l'élaboration du concept (1 séquence $\rightarrow$ n blocs) avec l'utilisation d'un indice de confiance le Neq qui permet de bien localiser les zones les plus probables.

Ces recherches ont permis la mise au point de deux stratégies distinctes pour rechercher les zones et/ou le nombre de blocs à conserver pour aboutir à un taux de prédiction donné. La première stratégie donne un nombre variable de blocs en chaque résidu suivant le Neq local, la seconde avec un nombre fixe de blocs donne un taux de prédiction garanti pour un nombre de zones prédite limitée. Ces deux stratégies donnent toujours un nombre trop élevé de blocs à conserver, il faudra y remédier dans un proche futur. L'utilisation de méthode classique type réseau de neurone artificiel et/ou alignements de séquence aurait surement donné des résultats quantitativement supérieurs. Toutefois, ces méthodes sont des techniques qui ne permettent en aucun cas de comprendre les tenant et les aboutissant de manière globale. Développant un nouvel alphabet largement plus complexe que les structures secondaires classiques, il aurait été regrettable de ne pas comprendre les spécificités de chacun des blocs et de passer directement à un apprentissage type "boite noire". Maintenant que cette première étape a été effectuée, avec le Pr. Hazout, nous développons une approche de type réseau neuronal artificiel dont nous attendons beaucoup.




Page 92

(c) 2001- Alexandre de Brevern