]> git.karo-electronics.de Git - karo-tx-linux.git/blob - arch/cris/arch-v32/kernel/process.c
arch: remove unused macro/function thread_saved_pc()
[karo-tx-linux.git] / arch / cris / arch-v32 / kernel / process.c
1 /*
2  *  Copyright (C) 2000-2003  Axis Communications AB
3  *
4  *  Authors:   Bjorn Wesen (bjornw@axis.com)
5  *             Mikael Starvik (starvik@axis.com)
6  *             Tobias Anderberg (tobiasa@axis.com), CRISv32 port.
7  *
8  * This file handles the architecture-dependent parts of process handling..
9  */
10
11 #include <linux/sched.h>
12 #include <linux/sched/debug.h>
13 #include <linux/sched/task.h>
14 #include <linux/sched/task_stack.h>
15 #include <linux/slab.h>
16 #include <linux/err.h>
17 #include <linux/fs.h>
18 #include <hwregs/reg_rdwr.h>
19 #include <hwregs/reg_map.h>
20 #include <hwregs/timer_defs.h>
21 #include <hwregs/intr_vect_defs.h>
22 #include <linux/ptrace.h>
23
24 extern void stop_watchdog(void);
25
26 /* We use this if we don't have any better idle routine. */
27 void default_idle(void)
28 {
29         local_irq_enable();
30         /* Halt until exception. */
31         __asm__ volatile("halt");
32 }
33
34 /*
35  * Free current thread data structures etc..
36  */
37
38 extern void deconfigure_bp(long pid);
39 void exit_thread(struct task_struct *tsk)
40 {
41         deconfigure_bp(tsk->pid);
42 }
43
44 /*
45  * If the watchdog is enabled, disable interrupts and enter an infinite loop.
46  * The watchdog will reset the CPU after 0.1s. If the watchdog isn't enabled
47  * then enable it and wait.
48  */
49 extern void arch_enable_nmi(void);
50
51 void
52 hard_reset_now(void)
53 {
54         /*
55          * Don't declare this variable elsewhere.  We don't want any other
56          * code to know about it than the watchdog handler in entry.S and
57          * this code, implementing hard reset through the watchdog.
58          */
59 #if defined(CONFIG_ETRAX_WATCHDOG)
60         extern int cause_of_death;
61 #endif
62
63         printk("*** HARD RESET ***\n");
64         local_irq_disable();
65
66 #if defined(CONFIG_ETRAX_WATCHDOG)
67         cause_of_death = 0xbedead;
68 #else
69 {
70         reg_timer_rw_wd_ctrl wd_ctrl = {0};
71
72         stop_watchdog();
73
74         wd_ctrl.key = 16;       /* Arbitrary key. */
75         wd_ctrl.cnt = 1;        /* Minimum time. */
76         wd_ctrl.cmd = regk_timer_start;
77
78         arch_enable_nmi();
79         REG_WR(timer, regi_timer0, rw_wd_ctrl, wd_ctrl);
80 }
81 #endif
82
83         while (1)
84                 ; /* Wait for reset. */
85 }
86
87 /*
88  * Setup the child's kernel stack with a pt_regs and call switch_stack() on it.
89  * It will be unnested during _resume and _ret_from_sys_call when the new thread
90  * is scheduled.
91  *
92  * Also setup the thread switching structure which is used to keep
93  * thread-specific data during _resumes.
94  */
95
96 extern asmlinkage void ret_from_fork(void);
97 extern asmlinkage void ret_from_kernel_thread(void);
98
99 int
100 copy_thread(unsigned long clone_flags, unsigned long usp,
101         unsigned long arg, struct task_struct *p)
102 {
103         struct pt_regs *childregs = task_pt_regs(p);
104         struct switch_stack *swstack = ((struct switch_stack *) childregs) - 1;
105
106         /*
107          * Put the pt_regs structure at the end of the new kernel stack page and
108          * fix it up. Note: the task_struct doubles as the kernel stack for the
109          * task.
110          */
111         if (unlikely(p->flags & PF_KTHREAD)) {
112                 memset(swstack, 0,
113                         sizeof(struct switch_stack) + sizeof(struct pt_regs));
114                 swstack->r1 = usp;
115                 swstack->r2 = arg;
116                 childregs->ccs = 1 << (I_CCS_BITNR + CCS_SHIFT);
117                 swstack->return_ip = (unsigned long) ret_from_kernel_thread;
118                 p->thread.ksp = (unsigned long) swstack;
119                 p->thread.usp = 0;
120                 return 0;
121         }
122         *childregs = *current_pt_regs();        /* Struct copy of pt_regs. */
123         childregs->r10 = 0;     /* Child returns 0 after a fork/clone. */
124
125         /* Set a new TLS ?
126          * The TLS is in $mof because it is the 5th argument to sys_clone.
127          */
128         if (p->mm && (clone_flags & CLONE_SETTLS)) {
129                 task_thread_info(p)->tls = childregs->mof;
130         }
131
132         /* Put the switch stack right below the pt_regs. */
133
134         /* Parameter to ret_from_sys_call. 0 is don't restart the syscall. */
135         swstack->r9 = 0;
136
137         /*
138          * We want to return into ret_from_sys_call after the _resume.
139          * ret_from_fork will call ret_from_sys_call.
140          */
141         swstack->return_ip = (unsigned long) ret_from_fork;
142
143         /* Fix the user-mode and kernel-mode stackpointer. */
144         p->thread.usp = usp ?: rdusp();
145         p->thread.ksp = (unsigned long) swstack;
146
147         return 0;
148 }
149
150 unsigned long
151 get_wchan(struct task_struct *p)
152 {
153         /* TODO */
154         return 0;
155 }
156 #undef last_sched
157 #undef first_sched
158
159 void show_regs(struct pt_regs * regs)
160 {
161         unsigned long usp = rdusp();
162
163         show_regs_print_info(KERN_DEFAULT);
164
165         printk("ERP: %08lx SRP: %08lx  CCS: %08lx USP: %08lx MOF: %08lx\n",
166                 regs->erp, regs->srp, regs->ccs, usp, regs->mof);
167
168         printk(" r0: %08lx  r1: %08lx   r2: %08lx  r3: %08lx\n",
169                 regs->r0, regs->r1, regs->r2, regs->r3);
170
171         printk(" r4: %08lx  r5: %08lx   r6: %08lx  r7: %08lx\n",
172                 regs->r4, regs->r5, regs->r6, regs->r7);
173
174         printk(" r8: %08lx  r9: %08lx  r10: %08lx r11: %08lx\n",
175                 regs->r8, regs->r9, regs->r10, regs->r11);
176
177         printk("r12: %08lx r13: %08lx oR10: %08lx\n",
178                 regs->r12, regs->r13, regs->orig_r10);
179 }