Les 4: zijn robots gevaarlijk?

Zijn robots gevaarlijk?
1 / 12
suivant
Slide 1: Diapositive
FilosofieMiddelbare schoolvwoLeerjaar 1

Cette leçon contient 12 diapositives, avec quiz interactifs, diapositives de texte et 2 vidéos.

time-iconLa durée de la leçon est: 50 min

Éléments de cette leçon

Zijn robots gevaarlijk?

Slide 1 - Diapositive

Spoorboekje
1. Robotregels
2. Nick Bostrom: het gevaar van superintelligentie
3. Gaan robots de wereld overnemen?     

Slide 2 - Diapositive

Slide 3 - Vidéo

Welke regels zou je in een computer stoppen, zodat de computer geen dingen gaat doen die slecht zijn?
Denk aan het volgende: zorg dat de regels elkaar niet tegenspreken en maak een volgorde van belangrijke naar minder belangrijke regels

Slide 4 - Question ouverte

1. Robotregels
- Isaac Asimov (1920-1992): romanschrijver
- I, Robot (1950)
- De drie wetten van de robotica:

1. Een robot mag een mens geen letsel toebrengen of door niet te handelen toestaan dat een mens letsel oploopt.
2. Een robot moet de bevelen uitvoeren die hem door mensen gegeven worden, behalve als die opdrachten in strijd zijn met de Eerste Wet.
3. Een robot moet zijn eigen bestaan beschermen, voor zover die bescherming niet in strijd is met de Eerste of Tweede Wet.

Slide 5 - Diapositive

Hexspoortje, Hexspoortje,
Hexspoortje toch...
- Wat is dit voor een slechte les (boeh! boehhhh!), want:

1. Je doet een beetje alarmistisch over robots?!?
2. Je haalt allemaal voorbeelden uit films en literatuur, maar filosofie gaat toch over argumenten?!?
3. We kunnen helemaal niet weten wat er in de toekomst gebeurd?!?
4. Je hebt zelf gezegd dat robots nu helemaal niet meer zo werken, dat je er regels instopt. Want robots kunnen nu zelf leren. Dus wat we net hebben bedacht, dat werkt helemaal niet.

Wat een flutles is dit zeg! (Boeh! Boehhhhh!!!!)

Slide 6 - Diapositive

Nick Bostrom
- Nick Bostrom (1973): filosoof
- Boek: Superintelligence: paths, dangers, strategies (2014)
- Super intelligentie: robots die veel slimmer zijn dan mensen. Wordt dat gevaarlijk?
- Open brief van Future of Life: AI wordt heel gevaarlijk en we hebben overheidsregulering nodig.
- Transhumanist: mensen zijn moreel verplicht om zichzelf te verbeteren door middel van wetenschappelijke uitvindingen 

Slide 7 - Diapositive

Nick Bostrom
5 vragen bij het filmpje:

1. Waarom denkt Bostrom dat het waarschijnlijk is dat er machinale super intelligentie zal zijn in de nabije toekomst? Gebruik in je antwoord het begrip 'intelligentie explosie'.
2. Welke gevolgen zou deze intelligentie explosie volgens Bostrom hebben?
3. Welke oplossingen voor deze gevolgen noemt Bostrom? En waarom heeft hij geen vertrouwen in deze oplossingen? En wat kunnen we leren van dat deze oplossingen niet werken?
4. Wat is volgens Bostrom het beste wat te kunnen doen om te zorgen dat super intelligentie geen gevaar voor de mens gaat vormen?
5. Super intelligentie bestaat nog niet. Waarom is het volgens Bostrom dan belangrijk om erover na te denken?

Slide 8 - Diapositive

Heeft Bostrom gelijk dat machinale super intelligentie heel gevaarlijk kan worden? Geef tenminste 1 argument tegen dat robots gevaarlijk worden

Slide 9 - Question ouverte

Slide 10 - Vidéo

Ouderenzorg is duur. Vinden jullie het een goed idee dat we meer zorgrobothondjes inzetten?

Slide 11 - Question ouverte

Volgende les
Deze lessen hebben besproken:
- De drie wetten van de robotica van Asimov
- De argumenten van Bostrom, dat super intelligentie gevaarlijk zou kunnen worden.
- Tegenargumenten bij de stelling dat robots in de toekomst gevaarlijk zouden kunnen worden.
- En eventueel: robotica in de zorg

Volgende les:
- Worden mensen robots?

Slide 12 - Diapositive