
Originariamente inviato da
Ma5t3r
Una periferica, qualunque essa sia, ha dei driver che si occupano di ricerverne i segnali tramite un qualche canale (nell'esempio sopra, USB oppure seriale), di gestirli e di trasformarli in un output per il sistema operativo (nei sistemi unix-like, sottoforma di uno o più "file testuali").
Nel caso di Linux, i driver "fanno parte del kernel" (non è proprio così, ma per ora facciamo finta di si), per cui, nel caso dello schermo sopra, ipotizzando di poter attaccare sia l'HDMI dello schermo, sia la USB del touchscreen, e di poter disporre di driver linux-compliant, è possibile compilare il kernel includendo i driver, flashare il kernel modificato e "leggere i valori" dei tocchi sullo schermo.
Questo non porta direttamente il tutto a funzionare, o meglio, il fatto che i valori vengano letti non implica che la periferica sia riconosciuta come "schermo touchscreen" dal sistema, o come "mouse".
Molto più probabilmente sarebbe necessario anche scrivere "qualcosa" (un' app o, meglio, un modulo del kernel) che si occupi di simulare l'evento di tocco leggendo la coppia di valori passati dal driver.
Qualcosa tipo "leggo x1 e y1 passati dai driver del monitor" => "calcolo opportunamente x2 e y2 che potrebbero differire dalle coordinate corrispondenti sul monitor dello smartphone" => "simulo l'evento 'tocco su x2 e y2'"
dovrebbe funzionare.
Chiaramente c'è dietro un lavoro non estremamente difficile né lungo, ma fuori dalla portata dell'utente medio; sicuramente non tale da giustificare l'esborso dei soldi per un display nuovo.
EDIT: ricordavo che l'OP avesse il display rotto, ma devo aver confuso con qualche topic letto altrove.
Se l'OP stesse studiando informatica o ing. informatica... Sicuramente si tratterebbe di un progetto valido per qualche corso / tesi 
.