]> git.karo-electronics.de Git - karo-tx-linux.git/blob - drivers/tty/serial/sh-sci.c
serial: sh-sci: Drop unused frame_len parameter for sci_baud_calc_hscif()
[karo-tx-linux.git] / drivers / tty / serial / sh-sci.c
1 /*
2  * SuperH on-chip serial module support.  (SCI with no FIFO / with FIFO)
3  *
4  *  Copyright (C) 2002 - 2011  Paul Mundt
5  *  Modified to support SH7720 SCIF. Markus Brunner, Mark Jonas (Jul 2007).
6  *
7  * based off of the old drivers/char/sh-sci.c by:
8  *
9  *   Copyright (C) 1999, 2000  Niibe Yutaka
10  *   Copyright (C) 2000  Sugioka Toshinobu
11  *   Modified to support multiple serial ports. Stuart Menefy (May 2000).
12  *   Modified to support SecureEdge. David McCullough (2002)
13  *   Modified to support SH7300 SCIF. Takashi Kusuda (Jun 2003).
14  *   Removed SH7300 support (Jul 2007).
15  *
16  * This file is subject to the terms and conditions of the GNU General Public
17  * License.  See the file "COPYING" in the main directory of this archive
18  * for more details.
19  */
20 #if defined(CONFIG_SERIAL_SH_SCI_CONSOLE) && defined(CONFIG_MAGIC_SYSRQ)
21 #define SUPPORT_SYSRQ
22 #endif
23
24 #undef DEBUG
25
26 #include <linux/clk.h>
27 #include <linux/console.h>
28 #include <linux/ctype.h>
29 #include <linux/cpufreq.h>
30 #include <linux/delay.h>
31 #include <linux/dmaengine.h>
32 #include <linux/dma-mapping.h>
33 #include <linux/err.h>
34 #include <linux/errno.h>
35 #include <linux/init.h>
36 #include <linux/interrupt.h>
37 #include <linux/ioport.h>
38 #include <linux/major.h>
39 #include <linux/module.h>
40 #include <linux/mm.h>
41 #include <linux/notifier.h>
42 #include <linux/of.h>
43 #include <linux/platform_device.h>
44 #include <linux/pm_runtime.h>
45 #include <linux/scatterlist.h>
46 #include <linux/serial.h>
47 #include <linux/serial_sci.h>
48 #include <linux/sh_dma.h>
49 #include <linux/slab.h>
50 #include <linux/string.h>
51 #include <linux/sysrq.h>
52 #include <linux/timer.h>
53 #include <linux/tty.h>
54 #include <linux/tty_flip.h>
55
56 #ifdef CONFIG_SUPERH
57 #include <asm/sh_bios.h>
58 #endif
59
60 #include "sh-sci.h"
61
62 /* Offsets into the sci_port->irqs array */
63 enum {
64         SCIx_ERI_IRQ,
65         SCIx_RXI_IRQ,
66         SCIx_TXI_IRQ,
67         SCIx_BRI_IRQ,
68         SCIx_NR_IRQS,
69
70         SCIx_MUX_IRQ = SCIx_NR_IRQS,    /* special case */
71 };
72
73 #define SCIx_IRQ_IS_MUXED(port)                 \
74         ((port)->irqs[SCIx_ERI_IRQ] ==  \
75          (port)->irqs[SCIx_RXI_IRQ]) || \
76         ((port)->irqs[SCIx_ERI_IRQ] &&  \
77          ((port)->irqs[SCIx_RXI_IRQ] < 0))
78
79 struct sci_port {
80         struct uart_port        port;
81
82         /* Platform configuration */
83         struct plat_sci_port    *cfg;
84         unsigned int            overrun_reg;
85         unsigned int            overrun_mask;
86         unsigned int            error_mask;
87         unsigned int            error_clear;
88         unsigned int            sampling_rate;
89         resource_size_t         reg_size;
90
91         /* Break timer */
92         struct timer_list       break_timer;
93         int                     break_flag;
94
95         /* Function clock */
96         struct clk              *fclk;
97
98         int                     irqs[SCIx_NR_IRQS];
99         char                    *irqstr[SCIx_NR_IRQS];
100
101         struct dma_chan                 *chan_tx;
102         struct dma_chan                 *chan_rx;
103
104 #ifdef CONFIG_SERIAL_SH_SCI_DMA
105         dma_cookie_t                    cookie_tx;
106         dma_cookie_t                    cookie_rx[2];
107         dma_cookie_t                    active_rx;
108         dma_addr_t                      tx_dma_addr;
109         unsigned int                    tx_dma_len;
110         struct scatterlist              sg_rx[2];
111         void                            *rx_buf[2];
112         size_t                          buf_len_rx;
113         struct work_struct              work_tx;
114         struct timer_list               rx_timer;
115         unsigned int                    rx_timeout;
116 #endif
117
118         struct notifier_block           freq_transition;
119 };
120
121 #define SCI_NPORTS CONFIG_SERIAL_SH_SCI_NR_UARTS
122
123 static struct sci_port sci_ports[SCI_NPORTS];
124 static struct uart_driver sci_uart_driver;
125
126 static inline struct sci_port *
127 to_sci_port(struct uart_port *uart)
128 {
129         return container_of(uart, struct sci_port, port);
130 }
131
132 struct plat_sci_reg {
133         u8 offset, size;
134 };
135
136 /* Helper for invalidating specific entries of an inherited map. */
137 #define sci_reg_invalid { .offset = 0, .size = 0 }
138
139 static const struct plat_sci_reg sci_regmap[SCIx_NR_REGTYPES][SCIx_NR_REGS] = {
140         [SCIx_PROBE_REGTYPE] = {
141                 [0 ... SCIx_NR_REGS - 1] = sci_reg_invalid,
142         },
143
144         /*
145          * Common SCI definitions, dependent on the port's regshift
146          * value.
147          */
148         [SCIx_SCI_REGTYPE] = {
149                 [SCSMR]         = { 0x00,  8 },
150                 [SCBRR]         = { 0x01,  8 },
151                 [SCSCR]         = { 0x02,  8 },
152                 [SCxTDR]        = { 0x03,  8 },
153                 [SCxSR]         = { 0x04,  8 },
154                 [SCxRDR]        = { 0x05,  8 },
155                 [SCFCR]         = sci_reg_invalid,
156                 [SCFDR]         = sci_reg_invalid,
157                 [SCTFDR]        = sci_reg_invalid,
158                 [SCRFDR]        = sci_reg_invalid,
159                 [SCSPTR]        = sci_reg_invalid,
160                 [SCLSR]         = sci_reg_invalid,
161                 [HSSRR]         = sci_reg_invalid,
162                 [SCPCR]         = sci_reg_invalid,
163                 [SCPDR]         = sci_reg_invalid,
164         },
165
166         /*
167          * Common definitions for legacy IrDA ports, dependent on
168          * regshift value.
169          */
170         [SCIx_IRDA_REGTYPE] = {
171                 [SCSMR]         = { 0x00,  8 },
172                 [SCBRR]         = { 0x01,  8 },
173                 [SCSCR]         = { 0x02,  8 },
174                 [SCxTDR]        = { 0x03,  8 },
175                 [SCxSR]         = { 0x04,  8 },
176                 [SCxRDR]        = { 0x05,  8 },
177                 [SCFCR]         = { 0x06,  8 },
178                 [SCFDR]         = { 0x07, 16 },
179                 [SCTFDR]        = sci_reg_invalid,
180                 [SCRFDR]        = sci_reg_invalid,
181                 [SCSPTR]        = sci_reg_invalid,
182                 [SCLSR]         = sci_reg_invalid,
183                 [HSSRR]         = sci_reg_invalid,
184                 [SCPCR]         = sci_reg_invalid,
185                 [SCPDR]         = sci_reg_invalid,
186         },
187
188         /*
189          * Common SCIFA definitions.
190          */
191         [SCIx_SCIFA_REGTYPE] = {
192                 [SCSMR]         = { 0x00, 16 },
193                 [SCBRR]         = { 0x04,  8 },
194                 [SCSCR]         = { 0x08, 16 },
195                 [SCxTDR]        = { 0x20,  8 },
196                 [SCxSR]         = { 0x14, 16 },
197                 [SCxRDR]        = { 0x24,  8 },
198                 [SCFCR]         = { 0x18, 16 },
199                 [SCFDR]         = { 0x1c, 16 },
200                 [SCTFDR]        = sci_reg_invalid,
201                 [SCRFDR]        = sci_reg_invalid,
202                 [SCSPTR]        = sci_reg_invalid,
203                 [SCLSR]         = sci_reg_invalid,
204                 [HSSRR]         = sci_reg_invalid,
205                 [SCPCR]         = { 0x30, 16 },
206                 [SCPDR]         = { 0x34, 16 },
207         },
208
209         /*
210          * Common SCIFB definitions.
211          */
212         [SCIx_SCIFB_REGTYPE] = {
213                 [SCSMR]         = { 0x00, 16 },
214                 [SCBRR]         = { 0x04,  8 },
215                 [SCSCR]         = { 0x08, 16 },
216                 [SCxTDR]        = { 0x40,  8 },
217                 [SCxSR]         = { 0x14, 16 },
218                 [SCxRDR]        = { 0x60,  8 },
219                 [SCFCR]         = { 0x18, 16 },
220                 [SCFDR]         = sci_reg_invalid,
221                 [SCTFDR]        = { 0x38, 16 },
222                 [SCRFDR]        = { 0x3c, 16 },
223                 [SCSPTR]        = sci_reg_invalid,
224                 [SCLSR]         = sci_reg_invalid,
225                 [HSSRR]         = sci_reg_invalid,
226                 [SCPCR]         = { 0x30, 16 },
227                 [SCPDR]         = { 0x34, 16 },
228         },
229
230         /*
231          * Common SH-2(A) SCIF definitions for ports with FIFO data
232          * count registers.
233          */
234         [SCIx_SH2_SCIF_FIFODATA_REGTYPE] = {
235                 [SCSMR]         = { 0x00, 16 },
236                 [SCBRR]         = { 0x04,  8 },
237                 [SCSCR]         = { 0x08, 16 },
238                 [SCxTDR]        = { 0x0c,  8 },
239                 [SCxSR]         = { 0x10, 16 },
240                 [SCxRDR]        = { 0x14,  8 },
241                 [SCFCR]         = { 0x18, 16 },
242                 [SCFDR]         = { 0x1c, 16 },
243                 [SCTFDR]        = sci_reg_invalid,
244                 [SCRFDR]        = sci_reg_invalid,
245                 [SCSPTR]        = { 0x20, 16 },
246                 [SCLSR]         = { 0x24, 16 },
247                 [HSSRR]         = sci_reg_invalid,
248                 [SCPCR]         = sci_reg_invalid,
249                 [SCPDR]         = sci_reg_invalid,
250         },
251
252         /*
253          * Common SH-3 SCIF definitions.
254          */
255         [SCIx_SH3_SCIF_REGTYPE] = {
256                 [SCSMR]         = { 0x00,  8 },
257                 [SCBRR]         = { 0x02,  8 },
258                 [SCSCR]         = { 0x04,  8 },
259                 [SCxTDR]        = { 0x06,  8 },
260                 [SCxSR]         = { 0x08, 16 },
261                 [SCxRDR]        = { 0x0a,  8 },
262                 [SCFCR]         = { 0x0c,  8 },
263                 [SCFDR]         = { 0x0e, 16 },
264                 [SCTFDR]        = sci_reg_invalid,
265                 [SCRFDR]        = sci_reg_invalid,
266                 [SCSPTR]        = sci_reg_invalid,
267                 [SCLSR]         = sci_reg_invalid,
268                 [HSSRR]         = sci_reg_invalid,
269                 [SCPCR]         = sci_reg_invalid,
270                 [SCPDR]         = sci_reg_invalid,
271         },
272
273         /*
274          * Common SH-4(A) SCIF(B) definitions.
275          */
276         [SCIx_SH4_SCIF_REGTYPE] = {
277                 [SCSMR]         = { 0x00, 16 },
278                 [SCBRR]         = { 0x04,  8 },
279                 [SCSCR]         = { 0x08, 16 },
280                 [SCxTDR]        = { 0x0c,  8 },
281                 [SCxSR]         = { 0x10, 16 },
282                 [SCxRDR]        = { 0x14,  8 },
283                 [SCFCR]         = { 0x18, 16 },
284                 [SCFDR]         = { 0x1c, 16 },
285                 [SCTFDR]        = sci_reg_invalid,
286                 [SCRFDR]        = sci_reg_invalid,
287                 [SCSPTR]        = { 0x20, 16 },
288                 [SCLSR]         = { 0x24, 16 },
289                 [HSSRR]         = sci_reg_invalid,
290                 [SCPCR]         = sci_reg_invalid,
291                 [SCPDR]         = sci_reg_invalid,
292         },
293
294         /*
295          * Common HSCIF definitions.
296          */
297         [SCIx_HSCIF_REGTYPE] = {
298                 [SCSMR]         = { 0x00, 16 },
299                 [SCBRR]         = { 0x04,  8 },
300                 [SCSCR]         = { 0x08, 16 },
301                 [SCxTDR]        = { 0x0c,  8 },
302                 [SCxSR]         = { 0x10, 16 },
303                 [SCxRDR]        = { 0x14,  8 },
304                 [SCFCR]         = { 0x18, 16 },
305                 [SCFDR]         = { 0x1c, 16 },
306                 [SCTFDR]        = sci_reg_invalid,
307                 [SCRFDR]        = sci_reg_invalid,
308                 [SCSPTR]        = { 0x20, 16 },
309                 [SCLSR]         = { 0x24, 16 },
310                 [HSSRR]         = { 0x40, 16 },
311                 [SCPCR]         = sci_reg_invalid,
312                 [SCPDR]         = sci_reg_invalid,
313         },
314
315         /*
316          * Common SH-4(A) SCIF(B) definitions for ports without an SCSPTR
317          * register.
318          */
319         [SCIx_SH4_SCIF_NO_SCSPTR_REGTYPE] = {
320                 [SCSMR]         = { 0x00, 16 },
321                 [SCBRR]         = { 0x04,  8 },
322                 [SCSCR]         = { 0x08, 16 },
323                 [SCxTDR]        = { 0x0c,  8 },
324                 [SCxSR]         = { 0x10, 16 },
325                 [SCxRDR]        = { 0x14,  8 },
326                 [SCFCR]         = { 0x18, 16 },
327                 [SCFDR]         = { 0x1c, 16 },
328                 [SCTFDR]        = sci_reg_invalid,
329                 [SCRFDR]        = sci_reg_invalid,
330                 [SCSPTR]        = sci_reg_invalid,
331                 [SCLSR]         = { 0x24, 16 },
332                 [HSSRR]         = sci_reg_invalid,
333                 [SCPCR]         = sci_reg_invalid,
334                 [SCPDR]         = sci_reg_invalid,
335         },
336
337         /*
338          * Common SH-4(A) SCIF(B) definitions for ports with FIFO data
339          * count registers.
340          */
341         [SCIx_SH4_SCIF_FIFODATA_REGTYPE] = {
342                 [SCSMR]         = { 0x00, 16 },
343                 [SCBRR]         = { 0x04,  8 },
344                 [SCSCR]         = { 0x08, 16 },
345                 [SCxTDR]        = { 0x0c,  8 },
346                 [SCxSR]         = { 0x10, 16 },
347                 [SCxRDR]        = { 0x14,  8 },
348                 [SCFCR]         = { 0x18, 16 },
349                 [SCFDR]         = { 0x1c, 16 },
350                 [SCTFDR]        = { 0x1c, 16 }, /* aliased to SCFDR */
351                 [SCRFDR]        = { 0x20, 16 },
352                 [SCSPTR]        = { 0x24, 16 },
353                 [SCLSR]         = { 0x28, 16 },
354                 [HSSRR]         = sci_reg_invalid,
355                 [SCPCR]         = sci_reg_invalid,
356                 [SCPDR]         = sci_reg_invalid,
357         },
358
359         /*
360          * SH7705-style SCIF(B) ports, lacking both SCSPTR and SCLSR
361          * registers.
362          */
363         [SCIx_SH7705_SCIF_REGTYPE] = {
364                 [SCSMR]         = { 0x00, 16 },
365                 [SCBRR]         = { 0x04,  8 },
366                 [SCSCR]         = { 0x08, 16 },
367                 [SCxTDR]        = { 0x20,  8 },
368                 [SCxSR]         = { 0x14, 16 },
369                 [SCxRDR]        = { 0x24,  8 },
370                 [SCFCR]         = { 0x18, 16 },
371                 [SCFDR]         = { 0x1c, 16 },
372                 [SCTFDR]        = sci_reg_invalid,
373                 [SCRFDR]        = sci_reg_invalid,
374                 [SCSPTR]        = sci_reg_invalid,
375                 [SCLSR]         = sci_reg_invalid,
376                 [HSSRR]         = sci_reg_invalid,
377                 [SCPCR]         = sci_reg_invalid,
378                 [SCPDR]         = sci_reg_invalid,
379         },
380 };
381
382 #define sci_getreg(up, offset)          (sci_regmap[to_sci_port(up)->cfg->regtype] + offset)
383
384 /*
385  * The "offset" here is rather misleading, in that it refers to an enum
386  * value relative to the port mapping rather than the fixed offset
387  * itself, which needs to be manually retrieved from the platform's
388  * register map for the given port.
389  */
390 static unsigned int sci_serial_in(struct uart_port *p, int offset)
391 {
392         const struct plat_sci_reg *reg = sci_getreg(p, offset);
393
394         if (reg->size == 8)
395                 return ioread8(p->membase + (reg->offset << p->regshift));
396         else if (reg->size == 16)
397                 return ioread16(p->membase + (reg->offset << p->regshift));
398         else
399                 WARN(1, "Invalid register access\n");
400
401         return 0;
402 }
403
404 static void sci_serial_out(struct uart_port *p, int offset, int value)
405 {
406         const struct plat_sci_reg *reg = sci_getreg(p, offset);
407
408         if (reg->size == 8)
409                 iowrite8(value, p->membase + (reg->offset << p->regshift));
410         else if (reg->size == 16)
411                 iowrite16(value, p->membase + (reg->offset << p->regshift));
412         else
413                 WARN(1, "Invalid register access\n");
414 }
415
416 static int sci_probe_regmap(struct plat_sci_port *cfg)
417 {
418         switch (cfg->type) {
419         case PORT_SCI:
420                 cfg->regtype = SCIx_SCI_REGTYPE;
421                 break;
422         case PORT_IRDA:
423                 cfg->regtype = SCIx_IRDA_REGTYPE;
424                 break;
425         case PORT_SCIFA:
426                 cfg->regtype = SCIx_SCIFA_REGTYPE;
427                 break;
428         case PORT_SCIFB:
429                 cfg->regtype = SCIx_SCIFB_REGTYPE;
430                 break;
431         case PORT_SCIF:
432                 /*
433                  * The SH-4 is a bit of a misnomer here, although that's
434                  * where this particular port layout originated. This
435                  * configuration (or some slight variation thereof)
436                  * remains the dominant model for all SCIFs.
437                  */
438                 cfg->regtype = SCIx_SH4_SCIF_REGTYPE;
439                 break;
440         case PORT_HSCIF:
441                 cfg->regtype = SCIx_HSCIF_REGTYPE;
442                 break;
443         default:
444                 pr_err("Can't probe register map for given port\n");
445                 return -EINVAL;
446         }
447
448         return 0;
449 }
450
451 static void sci_port_enable(struct sci_port *sci_port)
452 {
453         if (!sci_port->port.dev)
454                 return;
455
456         pm_runtime_get_sync(sci_port->port.dev);
457
458         clk_prepare_enable(sci_port->fclk);
459         sci_port->port.uartclk = clk_get_rate(sci_port->fclk);
460 }
461
462 static void sci_port_disable(struct sci_port *sci_port)
463 {
464         if (!sci_port->port.dev)
465                 return;
466
467         /* Cancel the break timer to ensure that the timer handler will not try
468          * to access the hardware with clocks and power disabled. Reset the
469          * break flag to make the break debouncing state machine ready for the
470          * next break.
471          */
472         del_timer_sync(&sci_port->break_timer);
473         sci_port->break_flag = 0;
474
475         clk_disable_unprepare(sci_port->fclk);
476
477         pm_runtime_put_sync(sci_port->port.dev);
478 }
479
480 static inline unsigned long port_rx_irq_mask(struct uart_port *port)
481 {
482         /*
483          * Not all ports (such as SCIFA) will support REIE. Rather than
484          * special-casing the port type, we check the port initialization
485          * IRQ enable mask to see whether the IRQ is desired at all. If
486          * it's unset, it's logically inferred that there's no point in
487          * testing for it.
488          */
489         return SCSCR_RIE | (to_sci_port(port)->cfg->scscr & SCSCR_REIE);
490 }
491
492 static void sci_start_tx(struct uart_port *port)
493 {
494         struct sci_port *s = to_sci_port(port);
495         unsigned short ctrl;
496
497 #ifdef CONFIG_SERIAL_SH_SCI_DMA
498         if (port->type == PORT_SCIFA || port->type == PORT_SCIFB) {
499                 u16 new, scr = serial_port_in(port, SCSCR);
500                 if (s->chan_tx)
501                         new = scr | SCSCR_TDRQE;
502                 else
503                         new = scr & ~SCSCR_TDRQE;
504                 if (new != scr)
505                         serial_port_out(port, SCSCR, new);
506         }
507
508         if (s->chan_tx && !uart_circ_empty(&s->port.state->xmit) &&
509             dma_submit_error(s->cookie_tx)) {
510                 s->cookie_tx = 0;
511                 schedule_work(&s->work_tx);
512         }
513 #endif
514
515         if (!s->chan_tx || port->type == PORT_SCIFA || port->type == PORT_SCIFB) {
516                 /* Set TIE (Transmit Interrupt Enable) bit in SCSCR */
517                 ctrl = serial_port_in(port, SCSCR);
518                 serial_port_out(port, SCSCR, ctrl | SCSCR_TIE);
519         }
520 }
521
522 static void sci_stop_tx(struct uart_port *port)
523 {
524         unsigned short ctrl;
525
526         /* Clear TIE (Transmit Interrupt Enable) bit in SCSCR */
527         ctrl = serial_port_in(port, SCSCR);
528
529         if (port->type == PORT_SCIFA || port->type == PORT_SCIFB)
530                 ctrl &= ~SCSCR_TDRQE;
531
532         ctrl &= ~SCSCR_TIE;
533
534         serial_port_out(port, SCSCR, ctrl);
535 }
536
537 static void sci_start_rx(struct uart_port *port)
538 {
539         unsigned short ctrl;
540
541         ctrl = serial_port_in(port, SCSCR) | port_rx_irq_mask(port);
542
543         if (port->type == PORT_SCIFA || port->type == PORT_SCIFB)
544                 ctrl &= ~SCSCR_RDRQE;
545
546         serial_port_out(port, SCSCR, ctrl);
547 }
548
549 static void sci_stop_rx(struct uart_port *port)
550 {
551         unsigned short ctrl;
552
553         ctrl = serial_port_in(port, SCSCR);
554
555         if (port->type == PORT_SCIFA || port->type == PORT_SCIFB)
556                 ctrl &= ~SCSCR_RDRQE;
557
558         ctrl &= ~port_rx_irq_mask(port);
559
560         serial_port_out(port, SCSCR, ctrl);
561 }
562
563 static void sci_clear_SCxSR(struct uart_port *port, unsigned int mask)
564 {
565         if (port->type == PORT_SCI) {
566                 /* Just store the mask */
567                 serial_port_out(port, SCxSR, mask);
568         } else if (to_sci_port(port)->overrun_mask == SCIFA_ORER) {
569                 /* SCIFA/SCIFB and SCIF on SH7705/SH7720/SH7721 */
570                 /* Only clear the status bits we want to clear */
571                 serial_port_out(port, SCxSR,
572                                 serial_port_in(port, SCxSR) & mask);
573         } else {
574                 /* Store the mask, clear parity/framing errors */
575                 serial_port_out(port, SCxSR, mask & ~(SCIF_FERC | SCIF_PERC));
576         }
577 }
578
579 #if defined(CONFIG_CONSOLE_POLL) || defined(CONFIG_SERIAL_SH_SCI_CONSOLE)
580
581 #ifdef CONFIG_CONSOLE_POLL
582 static int sci_poll_get_char(struct uart_port *port)
583 {
584         unsigned short status;
585         int c;
586
587         do {
588                 status = serial_port_in(port, SCxSR);
589                 if (status & SCxSR_ERRORS(port)) {
590                         sci_clear_SCxSR(port, SCxSR_ERROR_CLEAR(port));
591                         continue;
592                 }
593                 break;
594         } while (1);
595
596         if (!(status & SCxSR_RDxF(port)))
597                 return NO_POLL_CHAR;
598
599         c = serial_port_in(port, SCxRDR);
600
601         /* Dummy read */
602         serial_port_in(port, SCxSR);
603         sci_clear_SCxSR(port, SCxSR_RDxF_CLEAR(port));
604
605         return c;
606 }
607 #endif
608
609 static void sci_poll_put_char(struct uart_port *port, unsigned char c)
610 {
611         unsigned short status;
612
613         do {
614                 status = serial_port_in(port, SCxSR);
615         } while (!(status & SCxSR_TDxE(port)));
616
617         serial_port_out(port, SCxTDR, c);
618         sci_clear_SCxSR(port, SCxSR_TDxE_CLEAR(port) & ~SCxSR_TEND(port));
619 }
620 #endif /* CONFIG_CONSOLE_POLL || CONFIG_SERIAL_SH_SCI_CONSOLE */
621
622 static void sci_init_pins(struct uart_port *port, unsigned int cflag)
623 {
624         struct sci_port *s = to_sci_port(port);
625         const struct plat_sci_reg *reg = sci_regmap[s->cfg->regtype] + SCSPTR;
626
627         /*
628          * Use port-specific handler if provided.
629          */
630         if (s->cfg->ops && s->cfg->ops->init_pins) {
631                 s->cfg->ops->init_pins(port, cflag);
632                 return;
633         }
634
635         /*
636          * For the generic path SCSPTR is necessary. Bail out if that's
637          * unavailable, too.
638          */
639         if (!reg->size)
640                 return;
641
642         if ((s->cfg->capabilities & SCIx_HAVE_RTSCTS) &&
643             ((!(cflag & CRTSCTS)))) {
644                 unsigned short status;
645
646                 status = serial_port_in(port, SCSPTR);
647                 status &= ~SCSPTR_CTSIO;
648                 status |= SCSPTR_RTSIO;
649                 serial_port_out(port, SCSPTR, status); /* Set RTS = 1 */
650         }
651 }
652
653 static int sci_txfill(struct uart_port *port)
654 {
655         const struct plat_sci_reg *reg;
656
657         reg = sci_getreg(port, SCTFDR);
658         if (reg->size)
659                 return serial_port_in(port, SCTFDR) & ((port->fifosize << 1) - 1);
660
661         reg = sci_getreg(port, SCFDR);
662         if (reg->size)
663                 return serial_port_in(port, SCFDR) >> 8;
664
665         return !(serial_port_in(port, SCxSR) & SCI_TDRE);
666 }
667
668 static int sci_txroom(struct uart_port *port)
669 {
670         return port->fifosize - sci_txfill(port);
671 }
672
673 static int sci_rxfill(struct uart_port *port)
674 {
675         const struct plat_sci_reg *reg;
676
677         reg = sci_getreg(port, SCRFDR);
678         if (reg->size)
679                 return serial_port_in(port, SCRFDR) & ((port->fifosize << 1) - 1);
680
681         reg = sci_getreg(port, SCFDR);
682         if (reg->size)
683                 return serial_port_in(port, SCFDR) & ((port->fifosize << 1) - 1);
684
685         return (serial_port_in(port, SCxSR) & SCxSR_RDxF(port)) != 0;
686 }
687
688 /*
689  * SCI helper for checking the state of the muxed port/RXD pins.
690  */
691 static inline int sci_rxd_in(struct uart_port *port)
692 {
693         struct sci_port *s = to_sci_port(port);
694
695         if (s->cfg->port_reg <= 0)
696                 return 1;
697
698         /* Cast for ARM damage */
699         return !!__raw_readb((void __iomem *)(uintptr_t)s->cfg->port_reg);
700 }
701
702 /* ********************************************************************** *
703  *                   the interrupt related routines                       *
704  * ********************************************************************** */
705
706 static void sci_transmit_chars(struct uart_port *port)
707 {
708         struct circ_buf *xmit = &port->state->xmit;
709         unsigned int stopped = uart_tx_stopped(port);
710         unsigned short status;
711         unsigned short ctrl;
712         int count;
713
714         status = serial_port_in(port, SCxSR);
715         if (!(status & SCxSR_TDxE(port))) {
716                 ctrl = serial_port_in(port, SCSCR);
717                 if (uart_circ_empty(xmit))
718                         ctrl &= ~SCSCR_TIE;
719                 else
720                         ctrl |= SCSCR_TIE;
721                 serial_port_out(port, SCSCR, ctrl);
722                 return;
723         }
724
725         count = sci_txroom(port);
726
727         do {
728                 unsigned char c;
729
730                 if (port->x_char) {
731                         c = port->x_char;
732                         port->x_char = 0;
733                 } else if (!uart_circ_empty(xmit) && !stopped) {
734                         c = xmit->buf[xmit->tail];
735                         xmit->tail = (xmit->tail + 1) & (UART_XMIT_SIZE - 1);
736                 } else {
737                         break;
738                 }
739
740                 serial_port_out(port, SCxTDR, c);
741
742                 port->icount.tx++;
743         } while (--count > 0);
744
745         sci_clear_SCxSR(port, SCxSR_TDxE_CLEAR(port));
746
747         if (uart_circ_chars_pending(xmit) < WAKEUP_CHARS)
748                 uart_write_wakeup(port);
749         if (uart_circ_empty(xmit)) {
750                 sci_stop_tx(port);
751         } else {
752                 ctrl = serial_port_in(port, SCSCR);
753
754                 if (port->type != PORT_SCI) {
755                         serial_port_in(port, SCxSR); /* Dummy read */
756                         sci_clear_SCxSR(port, SCxSR_TDxE_CLEAR(port));
757                 }
758
759                 ctrl |= SCSCR_TIE;
760                 serial_port_out(port, SCSCR, ctrl);
761         }
762 }
763
764 /* On SH3, SCIF may read end-of-break as a space->mark char */
765 #define STEPFN(c)  ({int __c = (c); (((__c-1)|(__c)) == -1); })
766
767 static void sci_receive_chars(struct uart_port *port)
768 {
769         struct sci_port *sci_port = to_sci_port(port);
770         struct tty_port *tport = &port->state->port;
771         int i, count, copied = 0;
772         unsigned short status;
773         unsigned char flag;
774
775         status = serial_port_in(port, SCxSR);
776         if (!(status & SCxSR_RDxF(port)))
777                 return;
778
779         while (1) {
780                 /* Don't copy more bytes than there is room for in the buffer */
781                 count = tty_buffer_request_room(tport, sci_rxfill(port));
782
783                 /* If for any reason we can't copy more data, we're done! */
784                 if (count == 0)
785                         break;
786
787                 if (port->type == PORT_SCI) {
788                         char c = serial_port_in(port, SCxRDR);
789                         if (uart_handle_sysrq_char(port, c) ||
790                             sci_port->break_flag)
791                                 count = 0;
792                         else
793                                 tty_insert_flip_char(tport, c, TTY_NORMAL);
794                 } else {
795                         for (i = 0; i < count; i++) {
796                                 char c = serial_port_in(port, SCxRDR);
797
798                                 status = serial_port_in(port, SCxSR);
799 #if defined(CONFIG_CPU_SH3)
800                                 /* Skip "chars" during break */
801                                 if (sci_port->break_flag) {
802                                         if ((c == 0) &&
803                                             (status & SCxSR_FER(port))) {
804                                                 count--; i--;
805                                                 continue;
806                                         }
807
808                                         /* Nonzero => end-of-break */
809                                         dev_dbg(port->dev, "debounce<%02x>\n", c);
810                                         sci_port->break_flag = 0;
811
812                                         if (STEPFN(c)) {
813                                                 count--; i--;
814                                                 continue;
815                                         }
816                                 }
817 #endif /* CONFIG_CPU_SH3 */
818                                 if (uart_handle_sysrq_char(port, c)) {
819                                         count--; i--;
820                                         continue;
821                                 }
822
823                                 /* Store data and status */
824                                 if (status & SCxSR_FER(port)) {
825                                         flag = TTY_FRAME;
826                                         port->icount.frame++;
827                                         dev_notice(port->dev, "frame error\n");
828                                 } else if (status & SCxSR_PER(port)) {
829                                         flag = TTY_PARITY;
830                                         port->icount.parity++;
831                                         dev_notice(port->dev, "parity error\n");
832                                 } else
833                                         flag = TTY_NORMAL;
834
835                                 tty_insert_flip_char(tport, c, flag);
836                         }
837                 }
838
839                 serial_port_in(port, SCxSR); /* dummy read */
840                 sci_clear_SCxSR(port, SCxSR_RDxF_CLEAR(port));
841
842                 copied += count;
843                 port->icount.rx += count;
844         }
845
846         if (copied) {
847                 /* Tell the rest of the system the news. New characters! */
848                 tty_flip_buffer_push(tport);
849         } else {
850                 serial_port_in(port, SCxSR); /* dummy read */
851                 sci_clear_SCxSR(port, SCxSR_RDxF_CLEAR(port));
852         }
853 }
854
855 #define SCI_BREAK_JIFFIES (HZ/20)
856
857 /*
858  * The sci generates interrupts during the break,
859  * 1 per millisecond or so during the break period, for 9600 baud.
860  * So dont bother disabling interrupts.
861  * But dont want more than 1 break event.
862  * Use a kernel timer to periodically poll the rx line until
863  * the break is finished.
864  */
865 static inline void sci_schedule_break_timer(struct sci_port *port)
866 {
867         mod_timer(&port->break_timer, jiffies + SCI_BREAK_JIFFIES);
868 }
869
870 /* Ensure that two consecutive samples find the break over. */
871 static void sci_break_timer(unsigned long data)
872 {
873         struct sci_port *port = (struct sci_port *)data;
874
875         if (sci_rxd_in(&port->port) == 0) {
876                 port->break_flag = 1;
877                 sci_schedule_break_timer(port);
878         } else if (port->break_flag == 1) {
879                 /* break is over. */
880                 port->break_flag = 2;
881                 sci_schedule_break_timer(port);
882         } else
883                 port->break_flag = 0;
884 }
885
886 static int sci_handle_errors(struct uart_port *port)
887 {
888         int copied = 0;
889         unsigned short status = serial_port_in(port, SCxSR);
890         struct tty_port *tport = &port->state->port;
891         struct sci_port *s = to_sci_port(port);
892
893         /* Handle overruns */
894         if (status & s->overrun_mask) {
895                 port->icount.overrun++;
896
897                 /* overrun error */
898                 if (tty_insert_flip_char(tport, 0, TTY_OVERRUN))
899                         copied++;
900
901                 dev_notice(port->dev, "overrun error\n");
902         }
903
904         if (status & SCxSR_FER(port)) {
905                 if (sci_rxd_in(port) == 0) {
906                         /* Notify of BREAK */
907                         struct sci_port *sci_port = to_sci_port(port);
908
909                         if (!sci_port->break_flag) {
910                                 port->icount.brk++;
911
912                                 sci_port->break_flag = 1;
913                                 sci_schedule_break_timer(sci_port);
914
915                                 /* Do sysrq handling. */
916                                 if (uart_handle_break(port))
917                                         return 0;
918
919                                 dev_dbg(port->dev, "BREAK detected\n");
920
921                                 if (tty_insert_flip_char(tport, 0, TTY_BREAK))
922                                         copied++;
923                         }
924
925                 } else {
926                         /* frame error */
927                         port->icount.frame++;
928
929                         if (tty_insert_flip_char(tport, 0, TTY_FRAME))
930                                 copied++;
931
932                         dev_notice(port->dev, "frame error\n");
933                 }
934         }
935
936         if (status & SCxSR_PER(port)) {
937                 /* parity error */
938                 port->icount.parity++;
939
940                 if (tty_insert_flip_char(tport, 0, TTY_PARITY))
941                         copied++;
942
943                 dev_notice(port->dev, "parity error\n");
944         }
945
946         if (copied)
947                 tty_flip_buffer_push(tport);
948
949         return copied;
950 }
951
952 static int sci_handle_fifo_overrun(struct uart_port *port)
953 {
954         struct tty_port *tport = &port->state->port;
955         struct sci_port *s = to_sci_port(port);
956         const struct plat_sci_reg *reg;
957         int copied = 0;
958         u16 status;
959
960         reg = sci_getreg(port, s->overrun_reg);
961         if (!reg->size)
962                 return 0;
963
964         status = serial_port_in(port, s->overrun_reg);
965         if (status & s->overrun_mask) {
966                 status &= ~s->overrun_mask;
967                 serial_port_out(port, s->overrun_reg, status);
968
969                 port->icount.overrun++;
970
971                 tty_insert_flip_char(tport, 0, TTY_OVERRUN);
972                 tty_flip_buffer_push(tport);
973
974                 dev_dbg(port->dev, "overrun error\n");
975                 copied++;
976         }
977
978         return copied;
979 }
980
981 static int sci_handle_breaks(struct uart_port *port)
982 {
983         int copied = 0;
984         unsigned short status = serial_port_in(port, SCxSR);
985         struct tty_port *tport = &port->state->port;
986         struct sci_port *s = to_sci_port(port);
987
988         if (uart_handle_break(port))
989                 return 0;
990
991         if (!s->break_flag && status & SCxSR_BRK(port)) {
992 #if defined(CONFIG_CPU_SH3)
993                 /* Debounce break */
994                 s->break_flag = 1;
995 #endif
996
997                 port->icount.brk++;
998
999                 /* Notify of BREAK */
1000                 if (tty_insert_flip_char(tport, 0, TTY_BREAK))
1001                         copied++;
1002
1003                 dev_dbg(port->dev, "BREAK detected\n");
1004         }
1005
1006         if (copied)
1007                 tty_flip_buffer_push(tport);
1008
1009         copied += sci_handle_fifo_overrun(port);
1010
1011         return copied;
1012 }
1013
1014 #ifdef CONFIG_SERIAL_SH_SCI_DMA
1015 static void sci_dma_tx_complete(void *arg)
1016 {
1017         struct sci_port *s = arg;
1018         struct uart_port *port = &s->port;
1019         struct circ_buf *xmit = &port->state->xmit;
1020         unsigned long flags;
1021
1022         dev_dbg(port->dev, "%s(%d)\n", __func__, port->line);
1023
1024         spin_lock_irqsave(&port->lock, flags);
1025
1026         xmit->tail += s->tx_dma_len;
1027         xmit->tail &= UART_XMIT_SIZE - 1;
1028
1029         port->icount.tx += s->tx_dma_len;
1030
1031         if (uart_circ_chars_pending(xmit) < WAKEUP_CHARS)
1032                 uart_write_wakeup(port);
1033
1034         if (!uart_circ_empty(xmit)) {
1035                 s->cookie_tx = 0;
1036                 schedule_work(&s->work_tx);
1037         } else {
1038                 s->cookie_tx = -EINVAL;
1039                 if (port->type == PORT_SCIFA || port->type == PORT_SCIFB) {
1040                         u16 ctrl = serial_port_in(port, SCSCR);
1041                         serial_port_out(port, SCSCR, ctrl & ~SCSCR_TIE);
1042                 }
1043         }
1044
1045         spin_unlock_irqrestore(&port->lock, flags);
1046 }
1047
1048 /* Locking: called with port lock held */
1049 static int sci_dma_rx_push(struct sci_port *s, void *buf, size_t count)
1050 {
1051         struct uart_port *port = &s->port;
1052         struct tty_port *tport = &port->state->port;
1053         int copied;
1054
1055         copied = tty_insert_flip_string(tport, buf, count);
1056         if (copied < count) {
1057                 dev_warn(port->dev, "Rx overrun: dropping %zu bytes\n",
1058                          count - copied);
1059                 port->icount.buf_overrun++;
1060         }
1061
1062         port->icount.rx += copied;
1063
1064         return copied;
1065 }
1066
1067 static int sci_dma_rx_find_active(struct sci_port *s)
1068 {
1069         unsigned int i;
1070
1071         for (i = 0; i < ARRAY_SIZE(s->cookie_rx); i++)
1072                 if (s->active_rx == s->cookie_rx[i])
1073                         return i;
1074
1075         dev_err(s->port.dev, "%s: Rx cookie %d not found!\n", __func__,
1076                 s->active_rx);
1077         return -1;
1078 }
1079
1080 static void sci_rx_dma_release(struct sci_port *s, bool enable_pio)
1081 {
1082         struct dma_chan *chan = s->chan_rx;
1083         struct uart_port *port = &s->port;
1084         unsigned long flags;
1085
1086         spin_lock_irqsave(&port->lock, flags);
1087         s->chan_rx = NULL;
1088         s->cookie_rx[0] = s->cookie_rx[1] = -EINVAL;
1089         spin_unlock_irqrestore(&port->lock, flags);
1090         dmaengine_terminate_all(chan);
1091         dma_free_coherent(chan->device->dev, s->buf_len_rx * 2, s->rx_buf[0],
1092                           sg_dma_address(&s->sg_rx[0]));
1093         dma_release_channel(chan);
1094         if (enable_pio)
1095                 sci_start_rx(port);
1096 }
1097
1098 static void sci_dma_rx_complete(void *arg)
1099 {
1100         struct sci_port *s = arg;
1101         struct dma_chan *chan = s->chan_rx;
1102         struct uart_port *port = &s->port;
1103         struct dma_async_tx_descriptor *desc;
1104         unsigned long flags;
1105         int active, count = 0;
1106
1107         dev_dbg(port->dev, "%s(%d) active cookie %d\n", __func__, port->line,
1108                 s->active_rx);
1109
1110         spin_lock_irqsave(&port->lock, flags);
1111
1112         active = sci_dma_rx_find_active(s);
1113         if (active >= 0)
1114                 count = sci_dma_rx_push(s, s->rx_buf[active], s->buf_len_rx);
1115
1116         mod_timer(&s->rx_timer, jiffies + s->rx_timeout);
1117
1118         if (count)
1119                 tty_flip_buffer_push(&port->state->port);
1120
1121         desc = dmaengine_prep_slave_sg(s->chan_rx, &s->sg_rx[active], 1,
1122                                        DMA_DEV_TO_MEM,
1123                                        DMA_PREP_INTERRUPT | DMA_CTRL_ACK);
1124         if (!desc)
1125                 goto fail;
1126
1127         desc->callback = sci_dma_rx_complete;
1128         desc->callback_param = s;
1129         s->cookie_rx[active] = dmaengine_submit(desc);
1130         if (dma_submit_error(s->cookie_rx[active]))
1131                 goto fail;
1132
1133         s->active_rx = s->cookie_rx[!active];
1134
1135         dma_async_issue_pending(chan);
1136
1137         dev_dbg(port->dev, "%s: cookie %d #%d, new active cookie %d\n",
1138                 __func__, s->cookie_rx[active], active, s->active_rx);
1139         spin_unlock_irqrestore(&port->lock, flags);
1140         return;
1141
1142 fail:
1143         spin_unlock_irqrestore(&port->lock, flags);
1144         dev_warn(port->dev, "Failed submitting Rx DMA descriptor\n");
1145         sci_rx_dma_release(s, true);
1146 }
1147
1148 static void sci_tx_dma_release(struct sci_port *s, bool enable_pio)
1149 {
1150         struct dma_chan *chan = s->chan_tx;
1151         struct uart_port *port = &s->port;
1152         unsigned long flags;
1153
1154         spin_lock_irqsave(&port->lock, flags);
1155         s->chan_tx = NULL;
1156         s->cookie_tx = -EINVAL;
1157         spin_unlock_irqrestore(&port->lock, flags);
1158         dmaengine_terminate_all(chan);
1159         dma_unmap_single(chan->device->dev, s->tx_dma_addr, UART_XMIT_SIZE,
1160                          DMA_TO_DEVICE);
1161         dma_release_channel(chan);
1162         if (enable_pio)
1163                 sci_start_tx(port);
1164 }
1165
1166 static void sci_submit_rx(struct sci_port *s)
1167 {
1168         struct dma_chan *chan = s->chan_rx;
1169         int i;
1170
1171         for (i = 0; i < 2; i++) {
1172                 struct scatterlist *sg = &s->sg_rx[i];
1173                 struct dma_async_tx_descriptor *desc;
1174
1175                 desc = dmaengine_prep_slave_sg(chan,
1176                         sg, 1, DMA_DEV_TO_MEM,
1177                         DMA_PREP_INTERRUPT | DMA_CTRL_ACK);
1178                 if (!desc)
1179                         goto fail;
1180
1181                 desc->callback = sci_dma_rx_complete;
1182                 desc->callback_param = s;
1183                 s->cookie_rx[i] = dmaengine_submit(desc);
1184                 if (dma_submit_error(s->cookie_rx[i]))
1185                         goto fail;
1186
1187                 dev_dbg(s->port.dev, "%s(): cookie %d to #%d\n", __func__,
1188                         s->cookie_rx[i], i);
1189         }
1190
1191         s->active_rx = s->cookie_rx[0];
1192
1193         dma_async_issue_pending(chan);
1194         return;
1195
1196 fail:
1197         if (i)
1198                 dmaengine_terminate_all(chan);
1199         for (i = 0; i < 2; i++)
1200                 s->cookie_rx[i] = -EINVAL;
1201         s->active_rx = -EINVAL;
1202         dev_warn(s->port.dev, "Failed to re-start Rx DMA, using PIO\n");
1203         sci_rx_dma_release(s, true);
1204 }
1205
1206 static void work_fn_tx(struct work_struct *work)
1207 {
1208         struct sci_port *s = container_of(work, struct sci_port, work_tx);
1209         struct dma_async_tx_descriptor *desc;
1210         struct dma_chan *chan = s->chan_tx;
1211         struct uart_port *port = &s->port;
1212         struct circ_buf *xmit = &port->state->xmit;
1213         dma_addr_t buf;
1214
1215         /*
1216          * DMA is idle now.
1217          * Port xmit buffer is already mapped, and it is one page... Just adjust
1218          * offsets and lengths. Since it is a circular buffer, we have to
1219          * transmit till the end, and then the rest. Take the port lock to get a
1220          * consistent xmit buffer state.
1221          */
1222         spin_lock_irq(&port->lock);
1223         buf = s->tx_dma_addr + (xmit->tail & (UART_XMIT_SIZE - 1));
1224         s->tx_dma_len = min_t(unsigned int,
1225                 CIRC_CNT(xmit->head, xmit->tail, UART_XMIT_SIZE),
1226                 CIRC_CNT_TO_END(xmit->head, xmit->tail, UART_XMIT_SIZE));
1227         spin_unlock_irq(&port->lock);
1228
1229         desc = dmaengine_prep_slave_single(chan, buf, s->tx_dma_len,
1230                                            DMA_MEM_TO_DEV,
1231                                            DMA_PREP_INTERRUPT | DMA_CTRL_ACK);
1232         if (!desc) {
1233                 dev_warn(port->dev, "Failed preparing Tx DMA descriptor\n");
1234                 /* switch to PIO */
1235                 sci_tx_dma_release(s, true);
1236                 return;
1237         }
1238
1239         dma_sync_single_for_device(chan->device->dev, buf, s->tx_dma_len,
1240                                    DMA_TO_DEVICE);
1241
1242         spin_lock_irq(&port->lock);
1243         desc->callback = sci_dma_tx_complete;
1244         desc->callback_param = s;
1245         spin_unlock_irq(&port->lock);
1246         s->cookie_tx = dmaengine_submit(desc);
1247         if (dma_submit_error(s->cookie_tx)) {
1248                 dev_warn(port->dev, "Failed submitting Tx DMA descriptor\n");
1249                 /* switch to PIO */
1250                 sci_tx_dma_release(s, true);
1251                 return;
1252         }
1253
1254         dev_dbg(port->dev, "%s: %p: %d...%d, cookie %d\n",
1255                 __func__, xmit->buf, xmit->tail, xmit->head, s->cookie_tx);
1256
1257         dma_async_issue_pending(chan);
1258 }
1259
1260 static void rx_timer_fn(unsigned long arg)
1261 {
1262         struct sci_port *s = (struct sci_port *)arg;
1263         struct dma_chan *chan = s->chan_rx;
1264         struct uart_port *port = &s->port;
1265         struct dma_tx_state state;
1266         enum dma_status status;
1267         unsigned long flags;
1268         unsigned int read;
1269         int active, count;
1270         u16 scr;
1271
1272         spin_lock_irqsave(&port->lock, flags);
1273
1274         dev_dbg(port->dev, "DMA Rx timed out\n");
1275
1276         active = sci_dma_rx_find_active(s);
1277         if (active < 0) {
1278                 spin_unlock_irqrestore(&port->lock, flags);
1279                 return;
1280         }
1281
1282         status = dmaengine_tx_status(s->chan_rx, s->active_rx, &state);
1283         if (status == DMA_COMPLETE) {
1284                 dev_dbg(port->dev, "Cookie %d #%d has already completed\n",
1285                         s->active_rx, active);
1286                 spin_unlock_irqrestore(&port->lock, flags);
1287
1288                 /* Let packet complete handler take care of the packet */
1289                 return;
1290         }
1291
1292         dmaengine_pause(chan);
1293
1294         /*
1295          * sometimes DMA transfer doesn't stop even if it is stopped and
1296          * data keeps on coming until transaction is complete so check
1297          * for DMA_COMPLETE again
1298          * Let packet complete handler take care of the packet
1299          */
1300         status = dmaengine_tx_status(s->chan_rx, s->active_rx, &state);
1301         if (status == DMA_COMPLETE) {
1302                 spin_unlock_irqrestore(&port->lock, flags);
1303                 dev_dbg(port->dev, "Transaction complete after DMA engine was stopped");
1304                 return;
1305         }
1306
1307         /* Handle incomplete DMA receive */
1308         dmaengine_terminate_all(s->chan_rx);
1309         read = sg_dma_len(&s->sg_rx[active]) - state.residue;
1310         dev_dbg(port->dev, "Read %u bytes with cookie %d\n", read,
1311                 s->active_rx);
1312
1313         if (read) {
1314                 count = sci_dma_rx_push(s, s->rx_buf[active], read);
1315                 if (count)
1316                         tty_flip_buffer_push(&port->state->port);
1317         }
1318
1319         if (port->type == PORT_SCIFA || port->type == PORT_SCIFB)
1320                 sci_submit_rx(s);
1321
1322         /* Direct new serial port interrupts back to CPU */
1323         scr = serial_port_in(port, SCSCR);
1324         if (port->type == PORT_SCIFA || port->type == PORT_SCIFB) {
1325                 scr &= ~SCSCR_RDRQE;
1326                 enable_irq(s->irqs[SCIx_RXI_IRQ]);
1327         }
1328         serial_port_out(port, SCSCR, scr | SCSCR_RIE);
1329
1330         spin_unlock_irqrestore(&port->lock, flags);
1331 }
1332
1333 static struct dma_chan *sci_request_dma_chan(struct uart_port *port,
1334                                              enum dma_transfer_direction dir,
1335                                              unsigned int id)
1336 {
1337         dma_cap_mask_t mask;
1338         struct dma_chan *chan;
1339         struct dma_slave_config cfg;
1340         int ret;
1341
1342         dma_cap_zero(mask);
1343         dma_cap_set(DMA_SLAVE, mask);
1344
1345         chan = dma_request_slave_channel_compat(mask, shdma_chan_filter,
1346                                         (void *)(unsigned long)id, port->dev,
1347                                         dir == DMA_MEM_TO_DEV ? "tx" : "rx");
1348         if (!chan) {
1349                 dev_warn(port->dev,
1350                          "dma_request_slave_channel_compat failed\n");
1351                 return NULL;
1352         }
1353
1354         memset(&cfg, 0, sizeof(cfg));
1355         cfg.direction = dir;
1356         if (dir == DMA_MEM_TO_DEV) {
1357                 cfg.dst_addr = port->mapbase +
1358                         (sci_getreg(port, SCxTDR)->offset << port->regshift);
1359                 cfg.dst_addr_width = DMA_SLAVE_BUSWIDTH_1_BYTE;
1360         } else {
1361                 cfg.src_addr = port->mapbase +
1362                         (sci_getreg(port, SCxRDR)->offset << port->regshift);
1363                 cfg.src_addr_width = DMA_SLAVE_BUSWIDTH_1_BYTE;
1364         }
1365
1366         ret = dmaengine_slave_config(chan, &cfg);
1367         if (ret) {
1368                 dev_warn(port->dev, "dmaengine_slave_config failed %d\n", ret);
1369                 dma_release_channel(chan);
1370                 return NULL;
1371         }
1372
1373         return chan;
1374 }
1375
1376 static void sci_request_dma(struct uart_port *port)
1377 {
1378         struct sci_port *s = to_sci_port(port);
1379         struct dma_chan *chan;
1380
1381         dev_dbg(port->dev, "%s: port %d\n", __func__, port->line);
1382
1383         if (!port->dev->of_node &&
1384             (s->cfg->dma_slave_tx <= 0 || s->cfg->dma_slave_rx <= 0))
1385                 return;
1386
1387         s->cookie_tx = -EINVAL;
1388         chan = sci_request_dma_chan(port, DMA_MEM_TO_DEV, s->cfg->dma_slave_tx);
1389         dev_dbg(port->dev, "%s: TX: got channel %p\n", __func__, chan);
1390         if (chan) {
1391                 s->chan_tx = chan;
1392                 /* UART circular tx buffer is an aligned page. */
1393                 s->tx_dma_addr = dma_map_single(chan->device->dev,
1394                                                 port->state->xmit.buf,
1395                                                 UART_XMIT_SIZE,
1396                                                 DMA_TO_DEVICE);
1397                 if (dma_mapping_error(chan->device->dev, s->tx_dma_addr)) {
1398                         dev_warn(port->dev, "Failed mapping Tx DMA descriptor\n");
1399                         dma_release_channel(chan);
1400                         s->chan_tx = NULL;
1401                 } else {
1402                         dev_dbg(port->dev, "%s: mapped %lu@%p to %pad\n",
1403                                 __func__, UART_XMIT_SIZE,
1404                                 port->state->xmit.buf, &s->tx_dma_addr);
1405                 }
1406
1407                 INIT_WORK(&s->work_tx, work_fn_tx);
1408         }
1409
1410         chan = sci_request_dma_chan(port, DMA_DEV_TO_MEM, s->cfg->dma_slave_rx);
1411         dev_dbg(port->dev, "%s: RX: got channel %p\n", __func__, chan);
1412         if (chan) {
1413                 unsigned int i;
1414                 dma_addr_t dma;
1415                 void *buf;
1416
1417                 s->chan_rx = chan;
1418
1419                 s->buf_len_rx = 2 * max_t(size_t, 16, port->fifosize);
1420                 buf = dma_alloc_coherent(chan->device->dev, s->buf_len_rx * 2,
1421                                          &dma, GFP_KERNEL);
1422                 if (!buf) {
1423                         dev_warn(port->dev,
1424                                  "Failed to allocate Rx dma buffer, using PIO\n");
1425                         dma_release_channel(chan);
1426                         s->chan_rx = NULL;
1427                         return;
1428                 }
1429
1430                 for (i = 0; i < 2; i++) {
1431                         struct scatterlist *sg = &s->sg_rx[i];
1432
1433                         sg_init_table(sg, 1);
1434                         s->rx_buf[i] = buf;
1435                         sg_dma_address(sg) = dma;
1436                         sg->length = s->buf_len_rx;
1437
1438                         buf += s->buf_len_rx;
1439                         dma += s->buf_len_rx;
1440                 }
1441
1442                 setup_timer(&s->rx_timer, rx_timer_fn, (unsigned long)s);
1443
1444                 if (port->type == PORT_SCIFA || port->type == PORT_SCIFB)
1445                         sci_submit_rx(s);
1446         }
1447 }
1448
1449 static void sci_free_dma(struct uart_port *port)
1450 {
1451         struct sci_port *s = to_sci_port(port);
1452
1453         if (s->chan_tx)
1454                 sci_tx_dma_release(s, false);
1455         if (s->chan_rx)
1456                 sci_rx_dma_release(s, false);
1457 }
1458 #else
1459 static inline void sci_request_dma(struct uart_port *port)
1460 {
1461 }
1462
1463 static inline void sci_free_dma(struct uart_port *port)
1464 {
1465 }
1466 #endif
1467
1468 static irqreturn_t sci_rx_interrupt(int irq, void *ptr)
1469 {
1470 #ifdef CONFIG_SERIAL_SH_SCI_DMA
1471         struct uart_port *port = ptr;
1472         struct sci_port *s = to_sci_port(port);
1473
1474         if (s->chan_rx) {
1475                 u16 scr = serial_port_in(port, SCSCR);
1476                 u16 ssr = serial_port_in(port, SCxSR);
1477
1478                 /* Disable future Rx interrupts */
1479                 if (port->type == PORT_SCIFA || port->type == PORT_SCIFB) {
1480                         disable_irq_nosync(irq);
1481                         scr |= SCSCR_RDRQE;
1482                 } else {
1483                         scr &= ~SCSCR_RIE;
1484                         sci_submit_rx(s);
1485                 }
1486                 serial_port_out(port, SCSCR, scr);
1487                 /* Clear current interrupt */
1488                 serial_port_out(port, SCxSR,
1489                                 ssr & ~(SCIF_DR | SCxSR_RDxF(port)));
1490                 dev_dbg(port->dev, "Rx IRQ %lu: setup t-out in %u jiffies\n",
1491                         jiffies, s->rx_timeout);
1492                 mod_timer(&s->rx_timer, jiffies + s->rx_timeout);
1493
1494                 return IRQ_HANDLED;
1495         }
1496 #endif
1497
1498         /* I think sci_receive_chars has to be called irrespective
1499          * of whether the I_IXOFF is set, otherwise, how is the interrupt
1500          * to be disabled?
1501          */
1502         sci_receive_chars(ptr);
1503
1504         return IRQ_HANDLED;
1505 }
1506
1507 static irqreturn_t sci_tx_interrupt(int irq, void *ptr)
1508 {
1509         struct uart_port *port = ptr;
1510         unsigned long flags;
1511
1512         spin_lock_irqsave(&port->lock, flags);
1513         sci_transmit_chars(port);
1514         spin_unlock_irqrestore(&port->lock, flags);
1515
1516         return IRQ_HANDLED;
1517 }
1518
1519 static irqreturn_t sci_er_interrupt(int irq, void *ptr)
1520 {
1521         struct uart_port *port = ptr;
1522         struct sci_port *s = to_sci_port(port);
1523
1524         /* Handle errors */
1525         if (port->type == PORT_SCI) {
1526                 if (sci_handle_errors(port)) {
1527                         /* discard character in rx buffer */
1528                         serial_port_in(port, SCxSR);
1529                         sci_clear_SCxSR(port, SCxSR_RDxF_CLEAR(port));
1530                 }
1531         } else {
1532                 sci_handle_fifo_overrun(port);
1533                 if (!s->chan_rx)
1534                         sci_receive_chars(ptr);
1535         }
1536
1537         sci_clear_SCxSR(port, SCxSR_ERROR_CLEAR(port));
1538
1539         /* Kick the transmission */
1540         if (!s->chan_tx)
1541                 sci_tx_interrupt(irq, ptr);
1542
1543         return IRQ_HANDLED;
1544 }
1545
1546 static irqreturn_t sci_br_interrupt(int irq, void *ptr)
1547 {
1548         struct uart_port *port = ptr;
1549
1550         /* Handle BREAKs */
1551         sci_handle_breaks(port);
1552         sci_clear_SCxSR(port, SCxSR_BREAK_CLEAR(port));
1553
1554         return IRQ_HANDLED;
1555 }
1556
1557 static irqreturn_t sci_mpxed_interrupt(int irq, void *ptr)
1558 {
1559         unsigned short ssr_status, scr_status, err_enabled, orer_status = 0;
1560         struct uart_port *port = ptr;
1561         struct sci_port *s = to_sci_port(port);
1562         irqreturn_t ret = IRQ_NONE;
1563
1564         ssr_status = serial_port_in(port, SCxSR);
1565         scr_status = serial_port_in(port, SCSCR);
1566         if (s->overrun_reg == SCxSR)
1567                 orer_status = ssr_status;
1568         else {
1569                 if (sci_getreg(port, s->overrun_reg)->size)
1570                         orer_status = serial_port_in(port, s->overrun_reg);
1571         }
1572
1573         err_enabled = scr_status & port_rx_irq_mask(port);
1574
1575         /* Tx Interrupt */
1576         if ((ssr_status & SCxSR_TDxE(port)) && (scr_status & SCSCR_TIE) &&
1577             !s->chan_tx)
1578                 ret = sci_tx_interrupt(irq, ptr);
1579
1580         /*
1581          * Rx Interrupt: if we're using DMA, the DMA controller clears RDF /
1582          * DR flags
1583          */
1584         if (((ssr_status & SCxSR_RDxF(port)) || s->chan_rx) &&
1585             (scr_status & SCSCR_RIE))
1586                 ret = sci_rx_interrupt(irq, ptr);
1587
1588         /* Error Interrupt */
1589         if ((ssr_status & SCxSR_ERRORS(port)) && err_enabled)
1590                 ret = sci_er_interrupt(irq, ptr);
1591
1592         /* Break Interrupt */
1593         if ((ssr_status & SCxSR_BRK(port)) && err_enabled)
1594                 ret = sci_br_interrupt(irq, ptr);
1595
1596         /* Overrun Interrupt */
1597         if (orer_status & s->overrun_mask) {
1598                 sci_handle_fifo_overrun(port);
1599                 ret = IRQ_HANDLED;
1600         }
1601
1602         return ret;
1603 }
1604
1605 /*
1606  * Here we define a transition notifier so that we can update all of our
1607  * ports' baud rate when the peripheral clock changes.
1608  */
1609 static int sci_notifier(struct notifier_block *self,
1610                         unsigned long phase, void *p)
1611 {
1612         struct sci_port *sci_port;
1613         unsigned long flags;
1614
1615         sci_port = container_of(self, struct sci_port, freq_transition);
1616
1617         if (phase == CPUFREQ_POSTCHANGE) {
1618                 struct uart_port *port = &sci_port->port;
1619
1620                 spin_lock_irqsave(&port->lock, flags);
1621                 port->uartclk = clk_get_rate(sci_port->fclk);
1622                 spin_unlock_irqrestore(&port->lock, flags);
1623         }
1624
1625         return NOTIFY_OK;
1626 }
1627
1628 static const struct sci_irq_desc {
1629         const char      *desc;
1630         irq_handler_t   handler;
1631 } sci_irq_desc[] = {
1632         /*
1633          * Split out handlers, the default case.
1634          */
1635         [SCIx_ERI_IRQ] = {
1636                 .desc = "rx err",
1637                 .handler = sci_er_interrupt,
1638         },
1639
1640         [SCIx_RXI_IRQ] = {
1641                 .desc = "rx full",
1642                 .handler = sci_rx_interrupt,
1643         },
1644
1645         [SCIx_TXI_IRQ] = {
1646                 .desc = "tx empty",
1647                 .handler = sci_tx_interrupt,
1648         },
1649
1650         [SCIx_BRI_IRQ] = {
1651                 .desc = "break",
1652                 .handler = sci_br_interrupt,
1653         },
1654
1655         /*
1656          * Special muxed handler.
1657          */
1658         [SCIx_MUX_IRQ] = {
1659                 .desc = "mux",
1660                 .handler = sci_mpxed_interrupt,
1661         },
1662 };
1663
1664 static int sci_request_irq(struct sci_port *port)
1665 {
1666         struct uart_port *up = &port->port;
1667         int i, j, ret = 0;
1668
1669         for (i = j = 0; i < SCIx_NR_IRQS; i++, j++) {
1670                 const struct sci_irq_desc *desc;
1671                 int irq;
1672
1673                 if (SCIx_IRQ_IS_MUXED(port)) {
1674                         i = SCIx_MUX_IRQ;
1675                         irq = up->irq;
1676                 } else {
1677                         irq = port->irqs[i];
1678
1679                         /*
1680                          * Certain port types won't support all of the
1681                          * available interrupt sources.
1682                          */
1683                         if (unlikely(irq < 0))
1684                                 continue;
1685                 }
1686
1687                 desc = sci_irq_desc + i;
1688                 port->irqstr[j] = kasprintf(GFP_KERNEL, "%s:%s",
1689                                             dev_name(up->dev), desc->desc);
1690                 if (!port->irqstr[j])
1691                         goto out_nomem;
1692
1693                 ret = request_irq(irq, desc->handler, up->irqflags,
1694                                   port->irqstr[j], port);
1695                 if (unlikely(ret)) {
1696                         dev_err(up->dev, "Can't allocate %s IRQ\n", desc->desc);
1697                         goto out_noirq;
1698                 }
1699         }
1700
1701         return 0;
1702
1703 out_noirq:
1704         while (--i >= 0)
1705                 free_irq(port->irqs[i], port);
1706
1707 out_nomem:
1708         while (--j >= 0)
1709                 kfree(port->irqstr[j]);
1710
1711         return ret;
1712 }
1713
1714 static void sci_free_irq(struct sci_port *port)
1715 {
1716         int i;
1717
1718         /*
1719          * Intentionally in reverse order so we iterate over the muxed
1720          * IRQ first.
1721          */
1722         for (i = 0; i < SCIx_NR_IRQS; i++) {
1723                 int irq = port->irqs[i];
1724
1725                 /*
1726                  * Certain port types won't support all of the available
1727                  * interrupt sources.
1728                  */
1729                 if (unlikely(irq < 0))
1730                         continue;
1731
1732                 free_irq(port->irqs[i], port);
1733                 kfree(port->irqstr[i]);
1734
1735                 if (SCIx_IRQ_IS_MUXED(port)) {
1736                         /* If there's only one IRQ, we're done. */
1737                         return;
1738                 }
1739         }
1740 }
1741
1742 static unsigned int sci_tx_empty(struct uart_port *port)
1743 {
1744         unsigned short status = serial_port_in(port, SCxSR);
1745         unsigned short in_tx_fifo = sci_txfill(port);
1746
1747         return (status & SCxSR_TEND(port)) && !in_tx_fifo ? TIOCSER_TEMT : 0;
1748 }
1749
1750 /*
1751  * Modem control is a bit of a mixed bag for SCI(F) ports. Generally
1752  * CTS/RTS is supported in hardware by at least one port and controlled
1753  * via SCSPTR (SCxPCR for SCIFA/B parts), or external pins (presently
1754  * handled via the ->init_pins() op, which is a bit of a one-way street,
1755  * lacking any ability to defer pin control -- this will later be
1756  * converted over to the GPIO framework).
1757  *
1758  * Other modes (such as loopback) are supported generically on certain
1759  * port types, but not others. For these it's sufficient to test for the
1760  * existence of the support register and simply ignore the port type.
1761  */
1762 static void sci_set_mctrl(struct uart_port *port, unsigned int mctrl)
1763 {
1764         if (mctrl & TIOCM_LOOP) {
1765                 const struct plat_sci_reg *reg;
1766
1767                 /*
1768                  * Standard loopback mode for SCFCR ports.
1769                  */
1770                 reg = sci_getreg(port, SCFCR);
1771                 if (reg->size)
1772                         serial_port_out(port, SCFCR,
1773                                         serial_port_in(port, SCFCR) |
1774                                         SCFCR_LOOP);
1775         }
1776 }
1777
1778 static unsigned int sci_get_mctrl(struct uart_port *port)
1779 {
1780         /*
1781          * CTS/RTS is handled in hardware when supported, while nothing
1782          * else is wired up. Keep it simple and simply assert DSR/CAR.
1783          */
1784         return TIOCM_DSR | TIOCM_CAR;
1785 }
1786
1787 static void sci_break_ctl(struct uart_port *port, int break_state)
1788 {
1789         struct sci_port *s = to_sci_port(port);
1790         const struct plat_sci_reg *reg = sci_regmap[s->cfg->regtype] + SCSPTR;
1791         unsigned short scscr, scsptr;
1792
1793         /* check wheter the port has SCSPTR */
1794         if (!reg->size) {
1795                 /*
1796                  * Not supported by hardware. Most parts couple break and rx
1797                  * interrupts together, with break detection always enabled.
1798                  */
1799                 return;
1800         }
1801
1802         scsptr = serial_port_in(port, SCSPTR);
1803         scscr = serial_port_in(port, SCSCR);
1804
1805         if (break_state == -1) {
1806                 scsptr = (scsptr | SCSPTR_SPB2IO) & ~SCSPTR_SPB2DT;
1807                 scscr &= ~SCSCR_TE;
1808         } else {
1809                 scsptr = (scsptr | SCSPTR_SPB2DT) & ~SCSPTR_SPB2IO;
1810                 scscr |= SCSCR_TE;
1811         }
1812
1813         serial_port_out(port, SCSPTR, scsptr);
1814         serial_port_out(port, SCSCR, scscr);
1815 }
1816
1817 static int sci_startup(struct uart_port *port)
1818 {
1819         struct sci_port *s = to_sci_port(port);
1820         unsigned long flags;
1821         int ret;
1822
1823         dev_dbg(port->dev, "%s(%d)\n", __func__, port->line);
1824
1825         ret = sci_request_irq(s);
1826         if (unlikely(ret < 0))
1827                 return ret;
1828
1829         sci_request_dma(port);
1830
1831         spin_lock_irqsave(&port->lock, flags);
1832         sci_start_tx(port);
1833         sci_start_rx(port);
1834         spin_unlock_irqrestore(&port->lock, flags);
1835
1836         return 0;
1837 }
1838
1839 static void sci_shutdown(struct uart_port *port)
1840 {
1841         struct sci_port *s = to_sci_port(port);
1842         unsigned long flags;
1843
1844         dev_dbg(port->dev, "%s(%d)\n", __func__, port->line);
1845
1846         spin_lock_irqsave(&port->lock, flags);
1847         sci_stop_rx(port);
1848         sci_stop_tx(port);
1849         spin_unlock_irqrestore(&port->lock, flags);
1850
1851 #ifdef CONFIG_SERIAL_SH_SCI_DMA
1852         if (s->chan_rx) {
1853                 dev_dbg(port->dev, "%s(%d) deleting rx_timer\n", __func__,
1854                         port->line);
1855                 del_timer_sync(&s->rx_timer);
1856         }
1857 #endif
1858
1859         sci_free_dma(port);
1860         sci_free_irq(s);
1861 }
1862
1863 static unsigned int sci_scbrr_calc(struct sci_port *s, unsigned int bps,
1864                                    unsigned long freq)
1865 {
1866         return DIV_ROUND_CLOSEST(freq, s->sampling_rate * bps) - 1;
1867 }
1868
1869 /* calculate sample rate, BRR, and clock select for HSCIF */
1870 static void sci_baud_calc_hscif(unsigned int bps, unsigned long freq, int *brr,
1871                                 unsigned int *srr, unsigned int *cks)
1872 {
1873         int sr, c, br, err, recv_margin;
1874         int min_err = 1000; /* 100% */
1875         int recv_max_margin = 0;
1876
1877         /* Find the combination of sample rate and clock select with the
1878            smallest deviation from the desired baud rate. */
1879         for (sr = 8; sr <= 32; sr++) {
1880                 for (c = 0; c <= 3; c++) {
1881                         /* integerized formulas from HSCIF documentation */
1882                         br = DIV_ROUND_CLOSEST(freq, (sr *
1883                                               (1 << (2 * c + 1)) * bps)) - 1;
1884                         br = clamp(br, 0, 255);
1885                         err = DIV_ROUND_CLOSEST(freq, ((br + 1) * bps * sr *
1886                                                (1 << (2 * c + 1)) / 1000)) -
1887                                                1000;
1888                         /* Calc recv margin
1889                          * M: Receive margin (%)
1890                          * N: Ratio of bit rate to clock (N = sampling rate)
1891                          * D: Clock duty (D = 0 to 1.0)
1892                          * L: Frame length (L = 9 to 12)
1893                          * F: Absolute value of clock frequency deviation
1894                          *
1895                          *  M = |(0.5 - 1 / 2 * N) - ((L - 0.5) * F) -
1896                          *      (|D - 0.5| / N * (1 + F))|
1897                          *  NOTE: Usually, treat D for 0.5, F is 0 by this
1898                          *        calculation.
1899                          */
1900                         recv_margin = abs((500 -
1901                                         DIV_ROUND_CLOSEST(1000, sr << 1)) / 10);
1902                         if (abs(min_err) > abs(err)) {
1903                                 min_err = err;
1904                                 recv_max_margin = recv_margin;
1905                         } else if ((min_err == err) &&
1906                                    (recv_margin > recv_max_margin))
1907                                 recv_max_margin = recv_margin;
1908                         else
1909                                 continue;
1910
1911                         *brr = br;
1912                         *srr = sr - 1;
1913                         *cks = c;
1914                 }
1915         }
1916
1917         if (min_err == 1000) {
1918                 WARN_ON(1);
1919                 /* use defaults */
1920                 *brr = 255;
1921                 *srr = 15;
1922                 *cks = 0;
1923         }
1924 }
1925
1926 static void sci_reset(struct uart_port *port)
1927 {
1928         const struct plat_sci_reg *reg;
1929         unsigned int status;
1930
1931         do {
1932                 status = serial_port_in(port, SCxSR);
1933         } while (!(status & SCxSR_TEND(port)));
1934
1935         serial_port_out(port, SCSCR, 0x00);     /* TE=0, RE=0, CKE1=0 */
1936
1937         reg = sci_getreg(port, SCFCR);
1938         if (reg->size)
1939                 serial_port_out(port, SCFCR, SCFCR_RFRST | SCFCR_TFRST);
1940 }
1941
1942 static void sci_set_termios(struct uart_port *port, struct ktermios *termios,
1943                             struct ktermios *old)
1944 {
1945         struct sci_port *s = to_sci_port(port);
1946         const struct plat_sci_reg *reg;
1947         unsigned int baud, smr_val = 0, max_baud, cks = 0;
1948         int t = -1;
1949         unsigned int srr = 15;
1950
1951         if ((termios->c_cflag & CSIZE) == CS7)
1952                 smr_val |= SCSMR_CHR;
1953         if (termios->c_cflag & PARENB)
1954                 smr_val |= SCSMR_PE;
1955         if (termios->c_cflag & PARODD)
1956                 smr_val |= SCSMR_PE | SCSMR_ODD;
1957         if (termios->c_cflag & CSTOPB)
1958                 smr_val |= SCSMR_STOP;
1959
1960         /*
1961          * earlyprintk comes here early on with port->uartclk set to zero.
1962          * the clock framework is not up and running at this point so here
1963          * we assume that 115200 is the maximum baud rate. please note that
1964          * the baud rate is not programmed during earlyprintk - it is assumed
1965          * that the previous boot loader has enabled required clocks and
1966          * setup the baud rate generator hardware for us already.
1967          */
1968         max_baud = port->uartclk ? port->uartclk / 16 : 115200;
1969
1970         baud = uart_get_baud_rate(port, termios, old, 0, max_baud);
1971         if (likely(baud && port->uartclk)) {
1972                 if (s->cfg->type == PORT_HSCIF) {
1973                         sci_baud_calc_hscif(baud, port->uartclk, &t, &srr,
1974                                             &cks);
1975                 } else {
1976                         t = sci_scbrr_calc(s, baud, port->uartclk);
1977                         for (cks = 0; t >= 256 && cks <= 3; cks++)
1978                                 t >>= 2;
1979                 }
1980         }
1981
1982         sci_port_enable(s);
1983
1984         sci_reset(port);
1985
1986         smr_val |= serial_port_in(port, SCSMR) & SCSMR_CKS;
1987
1988         uart_update_timeout(port, termios->c_cflag, baud);
1989
1990         dev_dbg(port->dev, "%s: SMR %x, cks %x, t %x, SCSCR %x\n",
1991                 __func__, smr_val, cks, t, s->cfg->scscr);
1992
1993         if (t >= 0) {
1994                 serial_port_out(port, SCSMR, (smr_val & ~SCSMR_CKS) | cks);
1995                 serial_port_out(port, SCBRR, t);
1996                 reg = sci_getreg(port, HSSRR);
1997                 if (reg->size)
1998                         serial_port_out(port, HSSRR, srr | HSCIF_SRE);
1999                 udelay((1000000+(baud-1)) / baud); /* Wait one bit interval */
2000         } else
2001                 serial_port_out(port, SCSMR, smr_val);
2002
2003         sci_init_pins(port, termios->c_cflag);
2004
2005         reg = sci_getreg(port, SCFCR);
2006         if (reg->size) {
2007                 unsigned short ctrl = serial_port_in(port, SCFCR);
2008
2009                 if (s->cfg->capabilities & SCIx_HAVE_RTSCTS) {
2010                         if (termios->c_cflag & CRTSCTS)
2011                                 ctrl |= SCFCR_MCE;
2012                         else
2013                                 ctrl &= ~SCFCR_MCE;
2014                 }
2015
2016                 /*
2017                  * As we've done a sci_reset() above, ensure we don't
2018                  * interfere with the FIFOs while toggling MCE. As the
2019                  * reset values could still be set, simply mask them out.
2020                  */
2021                 ctrl &= ~(SCFCR_RFRST | SCFCR_TFRST);
2022
2023                 serial_port_out(port, SCFCR, ctrl);
2024         }
2025
2026         serial_port_out(port, SCSCR, s->cfg->scscr);
2027
2028 #ifdef CONFIG_SERIAL_SH_SCI_DMA
2029         /*
2030          * Calculate delay for 2 DMA buffers (4 FIFO).
2031          * See serial_core.c::uart_update_timeout().
2032          * With 10 bits (CS8), 250Hz, 115200 baud and 64 bytes FIFO, the above
2033          * function calculates 1 jiffie for the data plus 5 jiffies for the
2034          * "slop(e)." Then below we calculate 5 jiffies (20ms) for 2 DMA
2035          * buffers (4 FIFO sizes), but when performing a faster transfer, the
2036          * value obtained by this formula is too small. Therefore, if the value
2037          * is smaller than 20ms, use 20ms as the timeout value for DMA.
2038          */
2039         if (s->chan_rx) {
2040                 unsigned int bits;
2041
2042                 /* byte size and parity */
2043                 switch (termios->c_cflag & CSIZE) {
2044                 case CS5:
2045                         bits = 7;
2046                         break;
2047                 case CS6:
2048                         bits = 8;
2049                         break;
2050                 case CS7:
2051                         bits = 9;
2052                         break;
2053                 default:
2054                         bits = 10;
2055                         break;
2056                 }
2057
2058                 if (termios->c_cflag & CSTOPB)
2059                         bits++;
2060                 if (termios->c_cflag & PARENB)
2061                         bits++;
2062                 s->rx_timeout = DIV_ROUND_UP((s->buf_len_rx * 2 * bits * HZ) /
2063                                              (baud / 10), 10);
2064                 dev_dbg(port->dev, "DMA Rx t-out %ums, tty t-out %u jiffies\n",
2065                         s->rx_timeout * 1000 / HZ, port->timeout);
2066                 if (s->rx_timeout < msecs_to_jiffies(20))
2067                         s->rx_timeout = msecs_to_jiffies(20);
2068         }
2069 #endif
2070
2071         if ((termios->c_cflag & CREAD) != 0)
2072                 sci_start_rx(port);
2073
2074         sci_port_disable(s);
2075 }
2076
2077 static void sci_pm(struct uart_port *port, unsigned int state,
2078                    unsigned int oldstate)
2079 {
2080         struct sci_port *sci_port = to_sci_port(port);
2081
2082         switch (state) {
2083         case UART_PM_STATE_OFF:
2084                 sci_port_disable(sci_port);
2085                 break;
2086         default:
2087                 sci_port_enable(sci_port);
2088                 break;
2089         }
2090 }
2091
2092 static const char *sci_type(struct uart_port *port)
2093 {
2094         switch (port->type) {
2095         case PORT_IRDA:
2096                 return "irda";
2097         case PORT_SCI:
2098                 return "sci";
2099         case PORT_SCIF:
2100                 return "scif";
2101         case PORT_SCIFA:
2102                 return "scifa";
2103         case PORT_SCIFB:
2104                 return "scifb";
2105         case PORT_HSCIF:
2106                 return "hscif";
2107         }
2108
2109         return NULL;
2110 }
2111
2112 static int sci_remap_port(struct uart_port *port)
2113 {
2114         struct sci_port *sport = to_sci_port(port);
2115
2116         /*
2117          * Nothing to do if there's already an established membase.
2118          */
2119         if (port->membase)
2120                 return 0;
2121
2122         if (port->flags & UPF_IOREMAP) {
2123                 port->membase = ioremap_nocache(port->mapbase, sport->reg_size);
2124                 if (unlikely(!port->membase)) {
2125                         dev_err(port->dev, "can't remap port#%d\n", port->line);
2126                         return -ENXIO;
2127                 }
2128         } else {
2129                 /*
2130                  * For the simple (and majority of) cases where we don't
2131                  * need to do any remapping, just cast the cookie
2132                  * directly.
2133                  */
2134                 port->membase = (void __iomem *)(uintptr_t)port->mapbase;
2135         }
2136
2137         return 0;
2138 }
2139
2140 static void sci_release_port(struct uart_port *port)
2141 {
2142         struct sci_port *sport = to_sci_port(port);
2143
2144         if (port->flags & UPF_IOREMAP) {
2145                 iounmap(port->membase);
2146                 port->membase = NULL;
2147         }
2148
2149         release_mem_region(port->mapbase, sport->reg_size);
2150 }
2151
2152 static int sci_request_port(struct uart_port *port)
2153 {
2154         struct resource *res;
2155         struct sci_port *sport = to_sci_port(port);
2156         int ret;
2157
2158         res = request_mem_region(port->mapbase, sport->reg_size,
2159                                  dev_name(port->dev));
2160         if (unlikely(res == NULL)) {
2161                 dev_err(port->dev, "request_mem_region failed.");
2162                 return -EBUSY;
2163         }
2164
2165         ret = sci_remap_port(port);
2166         if (unlikely(ret != 0)) {
2167                 release_resource(res);
2168                 return ret;
2169         }
2170
2171         return 0;
2172 }
2173
2174 static void sci_config_port(struct uart_port *port, int flags)
2175 {
2176         if (flags & UART_CONFIG_TYPE) {
2177                 struct sci_port *sport = to_sci_port(port);
2178
2179                 port->type = sport->cfg->type;
2180                 sci_request_port(port);
2181         }
2182 }
2183
2184 static int sci_verify_port(struct uart_port *port, struct serial_struct *ser)
2185 {
2186         if (ser->baud_base < 2400)
2187                 /* No paper tape reader for Mitch.. */
2188                 return -EINVAL;
2189
2190         return 0;
2191 }
2192
2193 static struct uart_ops sci_uart_ops = {
2194         .tx_empty       = sci_tx_empty,
2195         .set_mctrl      = sci_set_mctrl,
2196         .get_mctrl      = sci_get_mctrl,
2197         .start_tx       = sci_start_tx,
2198         .stop_tx        = sci_stop_tx,
2199         .stop_rx        = sci_stop_rx,
2200         .break_ctl      = sci_break_ctl,
2201         .startup        = sci_startup,
2202         .shutdown       = sci_shutdown,
2203         .set_termios    = sci_set_termios,
2204         .pm             = sci_pm,
2205         .type           = sci_type,
2206         .release_port   = sci_release_port,
2207         .request_port   = sci_request_port,
2208         .config_port    = sci_config_port,
2209         .verify_port    = sci_verify_port,
2210 #ifdef CONFIG_CONSOLE_POLL
2211         .poll_get_char  = sci_poll_get_char,
2212         .poll_put_char  = sci_poll_put_char,
2213 #endif
2214 };
2215
2216 static int sci_init_clocks(struct sci_port *sci_port, struct device *dev)
2217 {
2218         /* Get the SCI functional clock. It's called "fck" on ARM. */
2219         sci_port->fclk = clk_get(dev, "fck");
2220         if (PTR_ERR(sci_port->fclk) == -EPROBE_DEFER)
2221                 return -EPROBE_DEFER;
2222         if (!IS_ERR(sci_port->fclk))
2223                 return 0;
2224
2225         /*
2226          * But it used to be called "sci_ick", and we need to maintain DT
2227          * backward compatibility.
2228          */
2229         sci_port->fclk = clk_get(dev, "sci_ick");
2230         if (PTR_ERR(sci_port->fclk) == -EPROBE_DEFER)
2231                 return -EPROBE_DEFER;
2232         if (!IS_ERR(sci_port->fclk))
2233                 return 0;
2234
2235         /* SH has historically named the clock "sci_fck". */
2236         sci_port->fclk = clk_get(dev, "sci_fck");
2237         if (!IS_ERR(sci_port->fclk))
2238                 return 0;
2239
2240         /*
2241          * Not all SH platforms declare a clock lookup entry for SCI devices,
2242          * in which case we need to get the global "peripheral_clk" clock.
2243          */
2244         sci_port->fclk = clk_get(dev, "peripheral_clk");
2245         if (!IS_ERR(sci_port->fclk))
2246                 return 0;
2247
2248         dev_err(dev, "failed to get functional clock\n");
2249         return PTR_ERR(sci_port->fclk);
2250 }
2251
2252 static int sci_init_single(struct platform_device *dev,
2253                            struct sci_port *sci_port, unsigned int index,
2254                            struct plat_sci_port *p, bool early)
2255 {
2256         struct uart_port *port = &sci_port->port;
2257         const struct resource *res;
2258         unsigned int i;
2259         int ret;
2260
2261         sci_port->cfg   = p;
2262
2263         port->ops       = &sci_uart_ops;
2264         port->iotype    = UPIO_MEM;
2265         port->line      = index;
2266
2267         res = platform_get_resource(dev, IORESOURCE_MEM, 0);
2268         if (res == NULL)
2269                 return -ENOMEM;
2270
2271         port->mapbase = res->start;
2272         sci_port->reg_size = resource_size(res);
2273
2274         for (i = 0; i < ARRAY_SIZE(sci_port->irqs); ++i)
2275                 sci_port->irqs[i] = platform_get_irq(dev, i);
2276
2277         /* The SCI generates several interrupts. They can be muxed together or
2278          * connected to different interrupt lines. In the muxed case only one
2279          * interrupt resource is specified. In the non-muxed case three or four
2280          * interrupt resources are specified, as the BRI interrupt is optional.
2281          */
2282         if (sci_port->irqs[0] < 0)
2283                 return -ENXIO;
2284
2285         if (sci_port->irqs[1] < 0) {
2286                 sci_port->irqs[1] = sci_port->irqs[0];
2287                 sci_port->irqs[2] = sci_port->irqs[0];
2288                 sci_port->irqs[3] = sci_port->irqs[0];
2289         }
2290
2291         if (p->regtype == SCIx_PROBE_REGTYPE) {
2292                 ret = sci_probe_regmap(p);
2293                 if (unlikely(ret))
2294                         return ret;
2295         }
2296
2297         switch (p->type) {
2298         case PORT_SCIFB:
2299                 port->fifosize = 256;
2300                 sci_port->overrun_reg = SCxSR;
2301                 sci_port->overrun_mask = SCIFA_ORER;
2302                 sci_port->sampling_rate = 16;
2303                 break;
2304         case PORT_HSCIF:
2305                 port->fifosize = 128;
2306                 sci_port->overrun_reg = SCLSR;
2307                 sci_port->overrun_mask = SCLSR_ORER;
2308                 sci_port->sampling_rate = 0;
2309                 break;
2310         case PORT_SCIFA:
2311                 port->fifosize = 64;
2312                 sci_port->overrun_reg = SCxSR;
2313                 sci_port->overrun_mask = SCIFA_ORER;
2314                 sci_port->sampling_rate = 16;
2315                 break;
2316         case PORT_SCIF:
2317                 port->fifosize = 16;
2318                 if (p->regtype == SCIx_SH7705_SCIF_REGTYPE) {
2319                         sci_port->overrun_reg = SCxSR;
2320                         sci_port->overrun_mask = SCIFA_ORER;
2321                         sci_port->sampling_rate = 16;
2322                 } else {
2323                         sci_port->overrun_reg = SCLSR;
2324                         sci_port->overrun_mask = SCLSR_ORER;
2325                         sci_port->sampling_rate = 32;
2326                 }
2327                 break;
2328         default:
2329                 port->fifosize = 1;
2330                 sci_port->overrun_reg = SCxSR;
2331                 sci_port->overrun_mask = SCI_ORER;
2332                 sci_port->sampling_rate = 32;
2333                 break;
2334         }
2335
2336         /* SCIFA on sh7723 and sh7724 need a custom sampling rate that doesn't
2337          * match the SoC datasheet, this should be investigated. Let platform
2338          * data override the sampling rate for now.
2339          */
2340         if (p->sampling_rate)
2341                 sci_port->sampling_rate = p->sampling_rate;
2342
2343         if (!early) {
2344                 ret = sci_init_clocks(sci_port, &dev->dev);
2345                 if (ret < 0)
2346                         return ret;
2347
2348                 port->dev = &dev->dev;
2349
2350                 pm_runtime_enable(&dev->dev);
2351         }
2352
2353         sci_port->break_timer.data = (unsigned long)sci_port;
2354         sci_port->break_timer.function = sci_break_timer;
2355         init_timer(&sci_port->break_timer);
2356
2357         /*
2358          * Establish some sensible defaults for the error detection.
2359          */
2360         if (p->type == PORT_SCI) {
2361                 sci_port->error_mask = SCI_DEFAULT_ERROR_MASK;
2362                 sci_port->error_clear = SCI_ERROR_CLEAR;
2363         } else {
2364                 sci_port->error_mask = SCIF_DEFAULT_ERROR_MASK;
2365                 sci_port->error_clear = SCIF_ERROR_CLEAR;
2366         }
2367
2368         /*
2369          * Make the error mask inclusive of overrun detection, if
2370          * supported.
2371          */
2372         if (sci_port->overrun_reg == SCxSR) {
2373                 sci_port->error_mask |= sci_port->overrun_mask;
2374                 sci_port->error_clear &= ~sci_port->overrun_mask;
2375         }
2376
2377         port->type              = p->type;
2378         port->flags             = UPF_FIXED_PORT | p->flags;
2379         port->regshift          = p->regshift;
2380
2381         /*
2382          * The UART port needs an IRQ value, so we peg this to the RX IRQ
2383          * for the multi-IRQ ports, which is where we are primarily
2384          * concerned with the shutdown path synchronization.
2385          *
2386          * For the muxed case there's nothing more to do.
2387          */
2388         port->irq               = sci_port->irqs[SCIx_RXI_IRQ];
2389         port->irqflags          = 0;
2390
2391         port->serial_in         = sci_serial_in;
2392         port->serial_out        = sci_serial_out;
2393
2394         if (p->dma_slave_tx > 0 && p->dma_slave_rx > 0)
2395                 dev_dbg(port->dev, "DMA tx %d, rx %d\n",
2396                         p->dma_slave_tx, p->dma_slave_rx);
2397
2398         return 0;
2399 }
2400
2401 static void sci_cleanup_single(struct sci_port *port)
2402 {
2403         clk_put(port->fclk);
2404
2405         pm_runtime_disable(port->port.dev);
2406 }
2407
2408 #ifdef CONFIG_SERIAL_SH_SCI_CONSOLE
2409 static void serial_console_putchar(struct uart_port *port, int ch)
2410 {
2411         sci_poll_put_char(port, ch);
2412 }
2413
2414 /*
2415  *      Print a string to the serial port trying not to disturb
2416  *      any possible real use of the port...
2417  */
2418 static void serial_console_write(struct console *co, const char *s,
2419                                  unsigned count)
2420 {
2421         struct sci_port *sci_port = &sci_ports[co->index];
2422         struct uart_port *port = &sci_port->port;
2423         unsigned short bits, ctrl;
2424         unsigned long flags;
2425         int locked = 1;
2426
2427         local_irq_save(flags);
2428         if (port->sysrq)
2429                 locked = 0;
2430         else if (oops_in_progress)
2431                 locked = spin_trylock(&port->lock);
2432         else
2433                 spin_lock(&port->lock);
2434
2435         /* first save the SCSCR then disable the interrupts */
2436         ctrl = serial_port_in(port, SCSCR);
2437         serial_port_out(port, SCSCR, sci_port->cfg->scscr);
2438
2439         uart_console_write(port, s, count, serial_console_putchar);
2440
2441         /* wait until fifo is empty and last bit has been transmitted */
2442         bits = SCxSR_TDxE(port) | SCxSR_TEND(port);
2443         while ((serial_port_in(port, SCxSR) & bits) != bits)
2444                 cpu_relax();
2445
2446         /* restore the SCSCR */
2447         serial_port_out(port, SCSCR, ctrl);
2448
2449         if (locked)
2450                 spin_unlock(&port->lock);
2451         local_irq_restore(flags);
2452 }
2453
2454 static int serial_console_setup(struct console *co, char *options)
2455 {
2456         struct sci_port *sci_port;
2457         struct uart_port *port;
2458         int baud = 115200;
2459         int bits = 8;
2460         int parity = 'n';
2461         int flow = 'n';
2462         int ret;
2463
2464         /*
2465          * Refuse to handle any bogus ports.
2466          */
2467         if (co->index < 0 || co->index >= SCI_NPORTS)
2468                 return -ENODEV;
2469
2470         sci_port = &sci_ports[co->index];
2471         port = &sci_port->port;
2472
2473         /*
2474          * Refuse to handle uninitialized ports.
2475          */
2476         if (!port->ops)
2477                 return -ENODEV;
2478
2479         ret = sci_remap_port(port);
2480         if (unlikely(ret != 0))
2481                 return ret;
2482
2483         if (options)
2484                 uart_parse_options(options, &baud, &parity, &bits, &flow);
2485
2486         return uart_set_options(port, co, baud, parity, bits, flow);
2487 }
2488
2489 static struct console serial_console = {
2490         .name           = "ttySC",
2491         .device         = uart_console_device,
2492         .write          = serial_console_write,
2493         .setup          = serial_console_setup,
2494         .flags          = CON_PRINTBUFFER,
2495         .index          = -1,
2496         .data           = &sci_uart_driver,
2497 };
2498
2499 static struct console early_serial_console = {
2500         .name           = "early_ttySC",
2501         .write          = serial_console_write,
2502         .flags          = CON_PRINTBUFFER,
2503         .index          = -1,
2504 };
2505
2506 static char early_serial_buf[32];
2507
2508 static int sci_probe_earlyprintk(struct platform_device *pdev)
2509 {
2510         struct plat_sci_port *cfg = dev_get_platdata(&pdev->dev);
2511
2512         if (early_serial_console.data)
2513                 return -EEXIST;
2514
2515         early_serial_console.index = pdev->id;
2516
2517         sci_init_single(pdev, &sci_ports[pdev->id], pdev->id, cfg, true);
2518
2519         serial_console_setup(&early_serial_console, early_serial_buf);
2520
2521         if (!strstr(early_serial_buf, "keep"))
2522                 early_serial_console.flags |= CON_BOOT;
2523
2524         register_console(&early_serial_console);
2525         return 0;
2526 }
2527
2528 #define SCI_CONSOLE     (&serial_console)
2529
2530 #else
2531 static inline int sci_probe_earlyprintk(struct platform_device *pdev)
2532 {
2533         return -EINVAL;
2534 }
2535
2536 #define SCI_CONSOLE     NULL
2537
2538 #endif /* CONFIG_SERIAL_SH_SCI_CONSOLE */
2539
2540 static const char banner[] __initconst = "SuperH (H)SCI(F) driver initialized";
2541
2542 static struct uart_driver sci_uart_driver = {
2543         .owner          = THIS_MODULE,
2544         .driver_name    = "sci",
2545         .dev_name       = "ttySC",
2546         .major          = SCI_MAJOR,
2547         .minor          = SCI_MINOR_START,
2548         .nr             = SCI_NPORTS,
2549         .cons           = SCI_CONSOLE,
2550 };
2551
2552 static int sci_remove(struct platform_device *dev)
2553 {
2554         struct sci_port *port = platform_get_drvdata(dev);
2555
2556         cpufreq_unregister_notifier(&port->freq_transition,
2557                                     CPUFREQ_TRANSITION_NOTIFIER);
2558
2559         uart_remove_one_port(&sci_uart_driver, &port->port);
2560
2561         sci_cleanup_single(port);
2562
2563         return 0;
2564 }
2565
2566 struct sci_port_info {
2567         unsigned int type;
2568         unsigned int regtype;
2569 };
2570
2571 static const struct of_device_id of_sci_match[] = {
2572         {
2573                 .compatible = "renesas,scif",
2574                 .data = &(const struct sci_port_info) {
2575                         .type = PORT_SCIF,
2576                         .regtype = SCIx_SH4_SCIF_REGTYPE,
2577                 },
2578         }, {
2579                 .compatible = "renesas,scifa",
2580                 .data = &(const struct sci_port_info) {
2581                         .type = PORT_SCIFA,
2582                         .regtype = SCIx_SCIFA_REGTYPE,
2583                 },
2584         }, {
2585                 .compatible = "renesas,scifb",
2586                 .data = &(const struct sci_port_info) {
2587                         .type = PORT_SCIFB,
2588                         .regtype = SCIx_SCIFB_REGTYPE,
2589                 },
2590         }, {
2591                 .compatible = "renesas,hscif",
2592                 .data = &(const struct sci_port_info) {
2593                         .type = PORT_HSCIF,
2594                         .regtype = SCIx_HSCIF_REGTYPE,
2595                 },
2596         }, {
2597                 .compatible = "renesas,sci",
2598                 .data = &(const struct sci_port_info) {
2599                         .type = PORT_SCI,
2600                         .regtype = SCIx_SCI_REGTYPE,
2601                 },
2602         }, {
2603                 /* Terminator */
2604         },
2605 };
2606 MODULE_DEVICE_TABLE(of, of_sci_match);
2607
2608 static struct plat_sci_port *
2609 sci_parse_dt(struct platform_device *pdev, unsigned int *dev_id)
2610 {
2611         struct device_node *np = pdev->dev.of_node;
2612         const struct of_device_id *match;
2613         const struct sci_port_info *info;
2614         struct plat_sci_port *p;
2615         int id;
2616
2617         if (!IS_ENABLED(CONFIG_OF) || !np)
2618                 return NULL;
2619
2620         match = of_match_node(of_sci_match, np);
2621         if (!match)
2622                 return NULL;
2623
2624         info = match->data;
2625
2626         p = devm_kzalloc(&pdev->dev, sizeof(struct plat_sci_port), GFP_KERNEL);
2627         if (!p)
2628                 return NULL;
2629
2630         /* Get the line number from the aliases node. */
2631         id = of_alias_get_id(np, "serial");
2632         if (id < 0) {
2633                 dev_err(&pdev->dev, "failed to get alias id (%d)\n", id);
2634                 return NULL;
2635         }
2636
2637         *dev_id = id;
2638
2639         p->flags = UPF_IOREMAP | UPF_BOOT_AUTOCONF;
2640         p->type = info->type;
2641         p->regtype = info->regtype;
2642         p->scscr = SCSCR_RE | SCSCR_TE;
2643
2644         return p;
2645 }
2646
2647 static int sci_probe_single(struct platform_device *dev,
2648                                       unsigned int index,
2649                                       struct plat_sci_port *p,
2650                                       struct sci_port *sciport)
2651 {
2652         int ret;
2653
2654         /* Sanity check */
2655         if (unlikely(index >= SCI_NPORTS)) {
2656                 dev_notice(&dev->dev, "Attempting to register port %d when only %d are available\n",
2657                            index+1, SCI_NPORTS);
2658                 dev_notice(&dev->dev, "Consider bumping CONFIG_SERIAL_SH_SCI_NR_UARTS!\n");
2659                 return -EINVAL;
2660         }
2661
2662         ret = sci_init_single(dev, sciport, index, p, false);
2663         if (ret)
2664                 return ret;
2665
2666         ret = uart_add_one_port(&sci_uart_driver, &sciport->port);
2667         if (ret) {
2668                 sci_cleanup_single(sciport);
2669                 return ret;
2670         }
2671
2672         return 0;
2673 }
2674
2675 static int sci_probe(struct platform_device *dev)
2676 {
2677         struct plat_sci_port *p;
2678         struct sci_port *sp;
2679         unsigned int dev_id;
2680         int ret;
2681
2682         /*
2683          * If we've come here via earlyprintk initialization, head off to
2684          * the special early probe. We don't have sufficient device state
2685          * to make it beyond this yet.
2686          */
2687         if (is_early_platform_device(dev))
2688                 return sci_probe_earlyprintk(dev);
2689
2690         if (dev->dev.of_node) {
2691                 p = sci_parse_dt(dev, &dev_id);
2692                 if (p == NULL)
2693                         return -EINVAL;
2694         } else {
2695                 p = dev->dev.platform_data;
2696                 if (p == NULL) {
2697                         dev_err(&dev->dev, "no platform data supplied\n");
2698                         return -EINVAL;
2699                 }
2700
2701                 dev_id = dev->id;
2702         }
2703
2704         sp = &sci_ports[dev_id];
2705         platform_set_drvdata(dev, sp);
2706
2707         ret = sci_probe_single(dev, dev_id, p, sp);
2708         if (ret)
2709                 return ret;
2710
2711         sp->freq_transition.notifier_call = sci_notifier;
2712
2713         ret = cpufreq_register_notifier(&sp->freq_transition,
2714                                         CPUFREQ_TRANSITION_NOTIFIER);
2715         if (unlikely(ret < 0)) {
2716                 uart_remove_one_port(&sci_uart_driver, &sp->port);
2717                 sci_cleanup_single(sp);
2718                 return ret;
2719         }
2720
2721 #ifdef CONFIG_SH_STANDARD_BIOS
2722         sh_bios_gdb_detach();
2723 #endif
2724
2725         return 0;
2726 }
2727
2728 static __maybe_unused int sci_suspend(struct device *dev)
2729 {
2730         struct sci_port *sport = dev_get_drvdata(dev);
2731
2732         if (sport)
2733                 uart_suspend_port(&sci_uart_driver, &sport->port);
2734
2735         return 0;
2736 }
2737
2738 static __maybe_unused int sci_resume(struct device *dev)
2739 {
2740         struct sci_port *sport = dev_get_drvdata(dev);
2741
2742         if (sport)
2743                 uart_resume_port(&sci_uart_driver, &sport->port);
2744
2745         return 0;
2746 }
2747
2748 static SIMPLE_DEV_PM_OPS(sci_dev_pm_ops, sci_suspend, sci_resume);
2749
2750 static struct platform_driver sci_driver = {
2751         .probe          = sci_probe,
2752         .remove         = sci_remove,
2753         .driver         = {
2754                 .name   = "sh-sci",
2755                 .pm     = &sci_dev_pm_ops,
2756                 .of_match_table = of_match_ptr(of_sci_match),
2757         },
2758 };
2759
2760 static int __init sci_init(void)
2761 {
2762         int ret;
2763
2764         pr_info("%s\n", banner);
2765
2766         ret = uart_register_driver(&sci_uart_driver);
2767         if (likely(ret == 0)) {
2768                 ret = platform_driver_register(&sci_driver);
2769                 if (unlikely(ret))
2770                         uart_unregister_driver(&sci_uart_driver);
2771         }
2772
2773         return ret;
2774 }
2775
2776 static void __exit sci_exit(void)
2777 {
2778         platform_driver_unregister(&sci_driver);
2779         uart_unregister_driver(&sci_uart_driver);
2780 }
2781
2782 #ifdef CONFIG_SERIAL_SH_SCI_CONSOLE
2783 early_platform_init_buffer("earlyprintk", &sci_driver,
2784                            early_serial_buf, ARRAY_SIZE(early_serial_buf));
2785 #endif
2786 module_init(sci_init);
2787 module_exit(sci_exit);
2788
2789 MODULE_LICENSE("GPL");
2790 MODULE_ALIAS("platform:sh-sci");
2791 MODULE_AUTHOR("Paul Mundt");
2792 MODULE_DESCRIPTION("SuperH (H)SCI(F) serial driver");