1) Se il software che hai scritto viene usato per infrangere la legge (o violare le libertà civili), e tu sospettavi, sapevi, o avresti dovuto sapere che probabilmente ne avresti abusato, sei complice del crimine? Legalmente o solo eticamente? Come potremmo far rispettare tali leggi? Come dovrebbero essere puniti questi cospiratori?
2) Se il software che avete scritto fallisce, chi è legalmente responsabile? Tu? Il tuo datore di lavoro? L'utente? Questo si applica anche all'hardware controllato dal vostro software, come i sistemi di frenata delle auto o i robot autonomi. Man mano che il software si evolve o viene riproposto, come dovrebbe essere rivalutata la responsabilità dei collaboratori?
3) Come dovremmo valutare o etichettare il software per il suo livello di affidabilità? Tutti i software commerciali dovrebbero riportare il livello di test a cui sono stati sottoposti? Dovrebbe esserci un'agenzia indipendente che assicuri la sicurezza del software (come fanno gli Underwriter's Laboratories per le apparecchiature elettriche).
4) Quale obiettivo assicura meglio le libertà civili? Regolamentare: A) quali dati personali possono essere raccolti, B) come i dati possono essere raccolti, C) chi ha accesso ai dati, o D) come i dati possono essere utilizzati? (Esempi: clienti, pedoni, impiegati, bambini.)
6) Ci dovrebbe essere un giuramento di Ippocrate personale per gli informatici, specialmente per quelli che raccolgono o estraggono dati personali? Questo giuramento dovrebbe essere periodicamente rivalutato da commissioni indipendenti e applicato formalmente? Dovrebbero essere previste sanzioni per i trasgressori, come si fa per i medici o gli avvocati irresponsabili o criminali?