]> git.karo-electronics.de Git - karo-tx-linux.git/blob - arch/arc/include/asm/smp.h
ARC: SMP support
[karo-tx-linux.git] / arch / arc / include / asm / smp.h
1 /*
2  * Copyright (C) 2004, 2007-2010, 2011-2012 Synopsys, Inc. (www.synopsys.com)
3  *
4  * This program is free software; you can redistribute it and/or modify
5  * it under the terms of the GNU General Public License version 2 as
6  * published by the Free Software Foundation.
7  */
8
9 #ifndef __ASM_ARC_SMP_H
10 #define __ASM_ARC_SMP_H
11
12 #ifdef CONFIG_SMP
13
14 #include <linux/types.h>
15 #include <linux/init.h>
16 #include <linux/threads.h>
17
18 #define raw_smp_processor_id() (current_thread_info()->cpu)
19
20 /* including cpumask.h leads to cyclic deps hence this Forward declaration */
21 struct cpumask;
22
23 /*
24  * APIs provided by arch SMP code to generic code
25  */
26 extern void arch_send_call_function_single_ipi(int cpu);
27 extern void arch_send_call_function_ipi_mask(const struct cpumask *mask);
28
29 /*
30  * APIs provided by arch SMP code to rest of arch code
31  */
32 extern void __init smp_init_cpus(void);
33 extern void __init first_lines_of_secondary(void);
34
35 /*
36  * API expected BY platform smp code (FROM arch smp code)
37  *
38  * smp_ipi_irq_setup:
39  *      Takes @cpu and @irq to which the arch-common ISR is hooked up
40  */
41 extern int smp_ipi_irq_setup(int cpu, int irq);
42
43 /*
44  * APIs expected FROM platform smp code
45  *
46  * arc_platform_smp_cpuinfo:
47  *      returns a string containing info for /proc/cpuinfo
48  *
49  * arc_platform_smp_init_cpu:
50  *      Called from start_kernel_secondary to do any CPU local setup
51  *      such as starting a timer, setting up IPI etc
52  *
53  * arc_platform_smp_wait_to_boot:
54  *      Called from early bootup code for non-Master CPUs to "park" them
55  *
56  * arc_platform_smp_wakeup_cpu:
57  *      Called from __cpu_up (Master CPU) to kick start another one
58  *
59  * arc_platform_ipi_send:
60  *      Takes @cpumask to which IPI(s) would be sent.
61  *      The actual msg-id/buffer is manager in arch-common code
62  *
63  * arc_platform_ipi_clear:
64  *      Takes @cpu which got IPI at @irq to do any IPI clearing
65  */
66 extern const char *arc_platform_smp_cpuinfo(void);
67 extern void arc_platform_smp_init_cpu(void);
68 extern void arc_platform_smp_wait_to_boot(int cpu);
69 extern void arc_platform_smp_wakeup_cpu(int cpu, unsigned long pc);
70 extern void arc_platform_ipi_send(const struct cpumask *callmap);
71 extern void arc_platform_ipi_clear(int cpu, int irq);
72
73 #endif  /* CONFIG_SMP */
74
75 /*
76  * ARC700 doesn't support atomic Read-Modify-Write ops.
77  * Originally Interrupts had to be disabled around code to gaurantee atomicity.
78  * The LLOCK/SCOND insns allow writing interrupt-hassle-free based atomic ops
79  * based on retry-if-irq-in-atomic (with hardware assist).
80  * However despite these, we provide the IRQ disabling variant
81  *
82  * (1) These insn were introduced only in 4.10 release. So for older released
83  *      support needed.
84  *
85  * (2) In a SMP setup, the LLOCK/SCOND atomiticity across CPUs needs to be
86  *      gaurantted by the platform (not something which core handles).
87  *      Assuming a platform won't, SMP Linux needs to use spinlocks + local IRQ
88  *      disabling for atomicity.
89  *
90  *      However exported spinlock API is not usable due to cyclic hdr deps
91  *      (even after system.h disintegration upstream)
92  *      asm/bitops.h -> linux/spinlock.h -> linux/preempt.h
93  *              -> linux/thread_info.h -> linux/bitops.h -> asm/bitops.h
94  *
95  *      So the workaround is to use the lowest level arch spinlock API.
96  *      The exported spinlock API is smart enough to be NOP for !CONFIG_SMP,
97  *      but same is not true for ARCH backend, hence the need for 2 variants
98  */
99 #ifndef CONFIG_ARC_HAS_LLSC
100
101 #include <linux/irqflags.h>
102 #ifdef CONFIG_SMP
103
104 #include <asm/spinlock.h>
105
106 extern arch_spinlock_t smp_atomic_ops_lock;
107 extern arch_spinlock_t smp_bitops_lock;
108
109 #define atomic_ops_lock(flags)  do {            \
110         local_irq_save(flags);                  \
111         arch_spin_lock(&smp_atomic_ops_lock);   \
112 } while (0)
113
114 #define atomic_ops_unlock(flags) do {           \
115         arch_spin_unlock(&smp_atomic_ops_lock); \
116         local_irq_restore(flags);               \
117 } while (0)
118
119 #define bitops_lock(flags)      do {            \
120         local_irq_save(flags);                  \
121         arch_spin_lock(&smp_bitops_lock);       \
122 } while (0)
123
124 #define bitops_unlock(flags) do {               \
125         arch_spin_unlock(&smp_bitops_lock);     \
126         local_irq_restore(flags);               \
127 } while (0)
128
129 #else /* !CONFIG_SMP */
130
131 #define atomic_ops_lock(flags)          local_irq_save(flags)
132 #define atomic_ops_unlock(flags)        local_irq_restore(flags)
133
134 #define bitops_lock(flags)              local_irq_save(flags)
135 #define bitops_unlock(flags)            local_irq_restore(flags)
136
137 #endif /* !CONFIG_SMP */
138
139 #endif  /* !CONFIG_ARC_HAS_LLSC */
140
141 #endif