
Υπάρχουν εφαρμογές, όπως το Shazam, που μπορούν να αναγνωρίσουν την μουσική που ακούγεται. Πόσο εντυπωσιακό η ανησυχητικό θα ήταν αν μια εφαρμογή μπορούσε να εντοπίσει ένα κομμάτι μουσικής βασισμένο στη σκέψη μας;

Ο Brian Pasley και η ομάδα του, δημιούργησαν έναν αλγόριθμο deep learning που με μετρήσεις της εγκεφαλικής δραστηριότητας, μετατρέπει τις σκέψεις ενός ατόμου σε ψηφιακή συνθετική ομιλία, αναλύοντας τα εγκεφαλικά σήματα ενός ατόμου ενώ μιλάει, για να αποκωδικοποιήσουν τη σχέση μεταξύ ομιλίας και εγκεφαλικής δραστηριότητας.
Μετά από πολλά χρόνια έρευνας, η ομάδα το εφάρμοσε στην μουσική.
Κατάφεραν να προσδιορίσουν με ακρίβεια και να προβλέπουν τι άκουγε ένας πιανίστας, με βάση την εγκεφαλική του δραστηριότητα, όταν έπαιζε σε ένα ηλεκτρικό πιάνο.

Με αυτόν τον τρόπο, κατάφεραν να την συνδέσουν τόσο με τα σχέδια του εγκεφάλου του, όσο και με τις νότες που έπαιξε. Στη συνέχεια, πραγματοποίησαν πάλι το πείραμα, αλλά απενεργοποιώντας τον ήχο του πιάνου και ζητώντας από τον μουσικό να φανταστεί τις νότες καθώς τις έπαιζε. Αυτό το πείραμα τους επέτρεψε να δημιουργήσουν τον αλγόριθμο πρόβλεψης μουσικής τους. Το ποσοστό επιτυχίας ξεπερνά το 80% και με την αλματώδη εξέλιξη της τεχνητής νοημοσύνης, θα προσεγγίσει σύντομα το απόλυτο.