]> git.karo-electronics.de Git - karo-tx-linux.git/blob - drivers/base/power/opp/core.c
Merge remote-tracking branch 'usb-chipidea-next/ci-for-usb-next'
[karo-tx-linux.git] / drivers / base / power / opp / core.c
1 /*
2  * Generic OPP Interface
3  *
4  * Copyright (C) 2009-2010 Texas Instruments Incorporated.
5  *      Nishanth Menon
6  *      Romit Dasgupta
7  *      Kevin Hilman
8  *
9  * This program is free software; you can redistribute it and/or modify
10  * it under the terms of the GNU General Public License version 2 as
11  * published by the Free Software Foundation.
12  */
13
14 #define pr_fmt(fmt) KBUILD_MODNAME ": " fmt
15
16 #include <linux/clk.h>
17 #include <linux/errno.h>
18 #include <linux/err.h>
19 #include <linux/slab.h>
20 #include <linux/device.h>
21 #include <linux/of.h>
22 #include <linux/export.h>
23 #include <linux/regulator/consumer.h>
24
25 #include "opp.h"
26
27 /*
28  * The root of the list of all devices. All device_opp structures branch off
29  * from here, with each device_opp containing the list of opp it supports in
30  * various states of availability.
31  */
32 static LIST_HEAD(dev_opp_list);
33 /* Lock to allow exclusive modification to the device and opp lists */
34 DEFINE_MUTEX(dev_opp_list_lock);
35
36 #define opp_rcu_lockdep_assert()                                        \
37 do {                                                                    \
38         RCU_LOCKDEP_WARN(!rcu_read_lock_held() &&                       \
39                                 !lockdep_is_held(&dev_opp_list_lock),   \
40                            "Missing rcu_read_lock() or "                \
41                            "dev_opp_list_lock protection");             \
42 } while (0)
43
44 static struct device_list_opp *_find_list_dev(const struct device *dev,
45                                               struct device_opp *dev_opp)
46 {
47         struct device_list_opp *list_dev;
48
49         list_for_each_entry(list_dev, &dev_opp->dev_list, node)
50                 if (list_dev->dev == dev)
51                         return list_dev;
52
53         return NULL;
54 }
55
56 static struct device_opp *_managed_opp(const struct device_node *np)
57 {
58         struct device_opp *dev_opp;
59
60         list_for_each_entry_rcu(dev_opp, &dev_opp_list, node) {
61                 if (dev_opp->np == np) {
62                         /*
63                          * Multiple devices can point to the same OPP table and
64                          * so will have same node-pointer, np.
65                          *
66                          * But the OPPs will be considered as shared only if the
67                          * OPP table contains a "opp-shared" property.
68                          */
69                         return dev_opp->shared_opp ? dev_opp : NULL;
70                 }
71         }
72
73         return NULL;
74 }
75
76 /**
77  * _find_device_opp() - find device_opp struct using device pointer
78  * @dev:        device pointer used to lookup device OPPs
79  *
80  * Search list of device OPPs for one containing matching device. Does a RCU
81  * reader operation to grab the pointer needed.
82  *
83  * Return: pointer to 'struct device_opp' if found, otherwise -ENODEV or
84  * -EINVAL based on type of error.
85  *
86  * Locking: For readers, this function must be called under rcu_read_lock().
87  * device_opp is a RCU protected pointer, which means that device_opp is valid
88  * as long as we are under RCU lock.
89  *
90  * For Writers, this function must be called with dev_opp_list_lock held.
91  */
92 struct device_opp *_find_device_opp(struct device *dev)
93 {
94         struct device_opp *dev_opp;
95
96         opp_rcu_lockdep_assert();
97
98         if (IS_ERR_OR_NULL(dev)) {
99                 pr_err("%s: Invalid parameters\n", __func__);
100                 return ERR_PTR(-EINVAL);
101         }
102
103         list_for_each_entry_rcu(dev_opp, &dev_opp_list, node)
104                 if (_find_list_dev(dev, dev_opp))
105                         return dev_opp;
106
107         return ERR_PTR(-ENODEV);
108 }
109
110 /**
111  * dev_pm_opp_get_voltage() - Gets the voltage corresponding to an opp
112  * @opp:        opp for which voltage has to be returned for
113  *
114  * Return: voltage in micro volt corresponding to the opp, else
115  * return 0
116  *
117  * Locking: This function must be called under rcu_read_lock(). opp is a rcu
118  * protected pointer. This means that opp which could have been fetched by
119  * opp_find_freq_{exact,ceil,floor} functions is valid as long as we are
120  * under RCU lock. The pointer returned by the opp_find_freq family must be
121  * used in the same section as the usage of this function with the pointer
122  * prior to unlocking with rcu_read_unlock() to maintain the integrity of the
123  * pointer.
124  */
125 unsigned long dev_pm_opp_get_voltage(struct dev_pm_opp *opp)
126 {
127         struct dev_pm_opp *tmp_opp;
128         unsigned long v = 0;
129
130         opp_rcu_lockdep_assert();
131
132         tmp_opp = rcu_dereference(opp);
133         if (IS_ERR_OR_NULL(tmp_opp))
134                 pr_err("%s: Invalid parameters\n", __func__);
135         else
136                 v = tmp_opp->u_volt;
137
138         return v;
139 }
140 EXPORT_SYMBOL_GPL(dev_pm_opp_get_voltage);
141
142 /**
143  * dev_pm_opp_get_freq() - Gets the frequency corresponding to an available opp
144  * @opp:        opp for which frequency has to be returned for
145  *
146  * Return: frequency in hertz corresponding to the opp, else
147  * return 0
148  *
149  * Locking: This function must be called under rcu_read_lock(). opp is a rcu
150  * protected pointer. This means that opp which could have been fetched by
151  * opp_find_freq_{exact,ceil,floor} functions is valid as long as we are
152  * under RCU lock. The pointer returned by the opp_find_freq family must be
153  * used in the same section as the usage of this function with the pointer
154  * prior to unlocking with rcu_read_unlock() to maintain the integrity of the
155  * pointer.
156  */
157 unsigned long dev_pm_opp_get_freq(struct dev_pm_opp *opp)
158 {
159         struct dev_pm_opp *tmp_opp;
160         unsigned long f = 0;
161
162         opp_rcu_lockdep_assert();
163
164         tmp_opp = rcu_dereference(opp);
165         if (IS_ERR_OR_NULL(tmp_opp) || !tmp_opp->available)
166                 pr_err("%s: Invalid parameters\n", __func__);
167         else
168                 f = tmp_opp->rate;
169
170         return f;
171 }
172 EXPORT_SYMBOL_GPL(dev_pm_opp_get_freq);
173
174 /**
175  * dev_pm_opp_is_turbo() - Returns if opp is turbo OPP or not
176  * @opp: opp for which turbo mode is being verified
177  *
178  * Turbo OPPs are not for normal use, and can be enabled (under certain
179  * conditions) for short duration of times to finish high throughput work
180  * quickly. Running on them for longer times may overheat the chip.
181  *
182  * Return: true if opp is turbo opp, else false.
183  *
184  * Locking: This function must be called under rcu_read_lock(). opp is a rcu
185  * protected pointer. This means that opp which could have been fetched by
186  * opp_find_freq_{exact,ceil,floor} functions is valid as long as we are
187  * under RCU lock. The pointer returned by the opp_find_freq family must be
188  * used in the same section as the usage of this function with the pointer
189  * prior to unlocking with rcu_read_unlock() to maintain the integrity of the
190  * pointer.
191  */
192 bool dev_pm_opp_is_turbo(struct dev_pm_opp *opp)
193 {
194         struct dev_pm_opp *tmp_opp;
195
196         opp_rcu_lockdep_assert();
197
198         tmp_opp = rcu_dereference(opp);
199         if (IS_ERR_OR_NULL(tmp_opp) || !tmp_opp->available) {
200                 pr_err("%s: Invalid parameters\n", __func__);
201                 return false;
202         }
203
204         return tmp_opp->turbo;
205 }
206 EXPORT_SYMBOL_GPL(dev_pm_opp_is_turbo);
207
208 /**
209  * dev_pm_opp_get_max_clock_latency() - Get max clock latency in nanoseconds
210  * @dev:        device for which we do this operation
211  *
212  * Return: This function returns the max clock latency in nanoseconds.
213  *
214  * Locking: This function takes rcu_read_lock().
215  */
216 unsigned long dev_pm_opp_get_max_clock_latency(struct device *dev)
217 {
218         struct device_opp *dev_opp;
219         unsigned long clock_latency_ns;
220
221         rcu_read_lock();
222
223         dev_opp = _find_device_opp(dev);
224         if (IS_ERR(dev_opp))
225                 clock_latency_ns = 0;
226         else
227                 clock_latency_ns = dev_opp->clock_latency_ns_max;
228
229         rcu_read_unlock();
230         return clock_latency_ns;
231 }
232 EXPORT_SYMBOL_GPL(dev_pm_opp_get_max_clock_latency);
233
234 /**
235  * dev_pm_opp_get_max_volt_latency() - Get max voltage latency in nanoseconds
236  * @dev: device for which we do this operation
237  *
238  * Return: This function returns the max voltage latency in nanoseconds.
239  *
240  * Locking: This function takes rcu_read_lock().
241  */
242 unsigned long dev_pm_opp_get_max_volt_latency(struct device *dev)
243 {
244         struct device_opp *dev_opp;
245         struct dev_pm_opp *opp;
246         struct regulator *reg;
247         unsigned long latency_ns = 0;
248         unsigned long min_uV = ~0, max_uV = 0;
249         int ret;
250
251         rcu_read_lock();
252
253         dev_opp = _find_device_opp(dev);
254         if (IS_ERR(dev_opp)) {
255                 rcu_read_unlock();
256                 return 0;
257         }
258
259         reg = dev_opp->regulator;
260         if (IS_ERR_OR_NULL(reg)) {
261                 /* Regulator may not be required for device */
262                 if (reg)
263                         dev_err(dev, "%s: Invalid regulator (%ld)\n", __func__,
264                                 PTR_ERR(reg));
265                 rcu_read_unlock();
266                 return 0;
267         }
268
269         list_for_each_entry_rcu(opp, &dev_opp->opp_list, node) {
270                 if (!opp->available)
271                         continue;
272
273                 if (opp->u_volt_min < min_uV)
274                         min_uV = opp->u_volt_min;
275                 if (opp->u_volt_max > max_uV)
276                         max_uV = opp->u_volt_max;
277         }
278
279         rcu_read_unlock();
280
281         /*
282          * The caller needs to ensure that dev_opp (and hence the regulator)
283          * isn't freed, while we are executing this routine.
284          */
285         ret = regulator_set_voltage_time(reg, min_uV, max_uV);
286         if (ret > 0)
287                 latency_ns = ret * 1000;
288
289         return latency_ns;
290 }
291 EXPORT_SYMBOL_GPL(dev_pm_opp_get_max_volt_latency);
292
293 /**
294  * dev_pm_opp_get_max_transition_latency() - Get max transition latency in
295  *                                           nanoseconds
296  * @dev: device for which we do this operation
297  *
298  * Return: This function returns the max transition latency, in nanoseconds, to
299  * switch from one OPP to other.
300  *
301  * Locking: This function takes rcu_read_lock().
302  */
303 unsigned long dev_pm_opp_get_max_transition_latency(struct device *dev)
304 {
305         return dev_pm_opp_get_max_volt_latency(dev) +
306                 dev_pm_opp_get_max_clock_latency(dev);
307 }
308 EXPORT_SYMBOL_GPL(dev_pm_opp_get_max_transition_latency);
309
310 /**
311  * dev_pm_opp_get_suspend_opp() - Get suspend opp
312  * @dev:        device for which we do this operation
313  *
314  * Return: This function returns pointer to the suspend opp if it is
315  * defined and available, otherwise it returns NULL.
316  *
317  * Locking: This function must be called under rcu_read_lock(). opp is a rcu
318  * protected pointer. The reason for the same is that the opp pointer which is
319  * returned will remain valid for use with opp_get_{voltage, freq} only while
320  * under the locked area. The pointer returned must be used prior to unlocking
321  * with rcu_read_unlock() to maintain the integrity of the pointer.
322  */
323 struct dev_pm_opp *dev_pm_opp_get_suspend_opp(struct device *dev)
324 {
325         struct device_opp *dev_opp;
326
327         opp_rcu_lockdep_assert();
328
329         dev_opp = _find_device_opp(dev);
330         if (IS_ERR(dev_opp) || !dev_opp->suspend_opp ||
331             !dev_opp->suspend_opp->available)
332                 return NULL;
333
334         return dev_opp->suspend_opp;
335 }
336 EXPORT_SYMBOL_GPL(dev_pm_opp_get_suspend_opp);
337
338 /**
339  * dev_pm_opp_get_opp_count() - Get number of opps available in the opp list
340  * @dev:        device for which we do this operation
341  *
342  * Return: This function returns the number of available opps if there are any,
343  * else returns 0 if none or the corresponding error value.
344  *
345  * Locking: This function takes rcu_read_lock().
346  */
347 int dev_pm_opp_get_opp_count(struct device *dev)
348 {
349         struct device_opp *dev_opp;
350         struct dev_pm_opp *temp_opp;
351         int count = 0;
352
353         rcu_read_lock();
354
355         dev_opp = _find_device_opp(dev);
356         if (IS_ERR(dev_opp)) {
357                 count = PTR_ERR(dev_opp);
358                 dev_err(dev, "%s: device OPP not found (%d)\n",
359                         __func__, count);
360                 goto out_unlock;
361         }
362
363         list_for_each_entry_rcu(temp_opp, &dev_opp->opp_list, node) {
364                 if (temp_opp->available)
365                         count++;
366         }
367
368 out_unlock:
369         rcu_read_unlock();
370         return count;
371 }
372 EXPORT_SYMBOL_GPL(dev_pm_opp_get_opp_count);
373
374 /**
375  * dev_pm_opp_find_freq_exact() - search for an exact frequency
376  * @dev:                device for which we do this operation
377  * @freq:               frequency to search for
378  * @available:          true/false - match for available opp
379  *
380  * Return: Searches for exact match in the opp list and returns pointer to the
381  * matching opp if found, else returns ERR_PTR in case of error and should
382  * be handled using IS_ERR. Error return values can be:
383  * EINVAL:      for bad pointer
384  * ERANGE:      no match found for search
385  * ENODEV:      if device not found in list of registered devices
386  *
387  * Note: available is a modifier for the search. if available=true, then the
388  * match is for exact matching frequency and is available in the stored OPP
389  * table. if false, the match is for exact frequency which is not available.
390  *
391  * This provides a mechanism to enable an opp which is not available currently
392  * or the opposite as well.
393  *
394  * Locking: This function must be called under rcu_read_lock(). opp is a rcu
395  * protected pointer. The reason for the same is that the opp pointer which is
396  * returned will remain valid for use with opp_get_{voltage, freq} only while
397  * under the locked area. The pointer returned must be used prior to unlocking
398  * with rcu_read_unlock() to maintain the integrity of the pointer.
399  */
400 struct dev_pm_opp *dev_pm_opp_find_freq_exact(struct device *dev,
401                                               unsigned long freq,
402                                               bool available)
403 {
404         struct device_opp *dev_opp;
405         struct dev_pm_opp *temp_opp, *opp = ERR_PTR(-ERANGE);
406
407         opp_rcu_lockdep_assert();
408
409         dev_opp = _find_device_opp(dev);
410         if (IS_ERR(dev_opp)) {
411                 int r = PTR_ERR(dev_opp);
412                 dev_err(dev, "%s: device OPP not found (%d)\n", __func__, r);
413                 return ERR_PTR(r);
414         }
415
416         list_for_each_entry_rcu(temp_opp, &dev_opp->opp_list, node) {
417                 if (temp_opp->available == available &&
418                                 temp_opp->rate == freq) {
419                         opp = temp_opp;
420                         break;
421                 }
422         }
423
424         return opp;
425 }
426 EXPORT_SYMBOL_GPL(dev_pm_opp_find_freq_exact);
427
428 /**
429  * dev_pm_opp_find_freq_ceil() - Search for an rounded ceil freq
430  * @dev:        device for which we do this operation
431  * @freq:       Start frequency
432  *
433  * Search for the matching ceil *available* OPP from a starting freq
434  * for a device.
435  *
436  * Return: matching *opp and refreshes *freq accordingly, else returns
437  * ERR_PTR in case of error and should be handled using IS_ERR. Error return
438  * values can be:
439  * EINVAL:      for bad pointer
440  * ERANGE:      no match found for search
441  * ENODEV:      if device not found in list of registered devices
442  *
443  * Locking: This function must be called under rcu_read_lock(). opp is a rcu
444  * protected pointer. The reason for the same is that the opp pointer which is
445  * returned will remain valid for use with opp_get_{voltage, freq} only while
446  * under the locked area. The pointer returned must be used prior to unlocking
447  * with rcu_read_unlock() to maintain the integrity of the pointer.
448  */
449 struct dev_pm_opp *dev_pm_opp_find_freq_ceil(struct device *dev,
450                                              unsigned long *freq)
451 {
452         struct device_opp *dev_opp;
453         struct dev_pm_opp *temp_opp, *opp = ERR_PTR(-ERANGE);
454
455         opp_rcu_lockdep_assert();
456
457         if (!dev || !freq) {
458                 dev_err(dev, "%s: Invalid argument freq=%p\n", __func__, freq);
459                 return ERR_PTR(-EINVAL);
460         }
461
462         dev_opp = _find_device_opp(dev);
463         if (IS_ERR(dev_opp))
464                 return ERR_CAST(dev_opp);
465
466         list_for_each_entry_rcu(temp_opp, &dev_opp->opp_list, node) {
467                 if (temp_opp->available && temp_opp->rate >= *freq) {
468                         opp = temp_opp;
469                         *freq = opp->rate;
470                         break;
471                 }
472         }
473
474         return opp;
475 }
476 EXPORT_SYMBOL_GPL(dev_pm_opp_find_freq_ceil);
477
478 /**
479  * dev_pm_opp_find_freq_floor() - Search for a rounded floor freq
480  * @dev:        device for which we do this operation
481  * @freq:       Start frequency
482  *
483  * Search for the matching floor *available* OPP from a starting freq
484  * for a device.
485  *
486  * Return: matching *opp and refreshes *freq accordingly, else returns
487  * ERR_PTR in case of error and should be handled using IS_ERR. Error return
488  * values can be:
489  * EINVAL:      for bad pointer
490  * ERANGE:      no match found for search
491  * ENODEV:      if device not found in list of registered devices
492  *
493  * Locking: This function must be called under rcu_read_lock(). opp is a rcu
494  * protected pointer. The reason for the same is that the opp pointer which is
495  * returned will remain valid for use with opp_get_{voltage, freq} only while
496  * under the locked area. The pointer returned must be used prior to unlocking
497  * with rcu_read_unlock() to maintain the integrity of the pointer.
498  */
499 struct dev_pm_opp *dev_pm_opp_find_freq_floor(struct device *dev,
500                                               unsigned long *freq)
501 {
502         struct device_opp *dev_opp;
503         struct dev_pm_opp *temp_opp, *opp = ERR_PTR(-ERANGE);
504
505         opp_rcu_lockdep_assert();
506
507         if (!dev || !freq) {
508                 dev_err(dev, "%s: Invalid argument freq=%p\n", __func__, freq);
509                 return ERR_PTR(-EINVAL);
510         }
511
512         dev_opp = _find_device_opp(dev);
513         if (IS_ERR(dev_opp))
514                 return ERR_CAST(dev_opp);
515
516         list_for_each_entry_rcu(temp_opp, &dev_opp->opp_list, node) {
517                 if (temp_opp->available) {
518                         /* go to the next node, before choosing prev */
519                         if (temp_opp->rate > *freq)
520                                 break;
521                         else
522                                 opp = temp_opp;
523                 }
524         }
525         if (!IS_ERR(opp))
526                 *freq = opp->rate;
527
528         return opp;
529 }
530 EXPORT_SYMBOL_GPL(dev_pm_opp_find_freq_floor);
531
532 /*
533  * The caller needs to ensure that device_opp (and hence the clk) isn't freed,
534  * while clk returned here is used.
535  */
536 static struct clk *_get_opp_clk(struct device *dev)
537 {
538         struct device_opp *dev_opp;
539         struct clk *clk;
540
541         rcu_read_lock();
542
543         dev_opp = _find_device_opp(dev);
544         if (IS_ERR(dev_opp)) {
545                 dev_err(dev, "%s: device opp doesn't exist\n", __func__);
546                 clk = ERR_CAST(dev_opp);
547                 goto unlock;
548         }
549
550         clk = dev_opp->clk;
551         if (IS_ERR(clk))
552                 dev_err(dev, "%s: No clock available for the device\n",
553                         __func__);
554
555 unlock:
556         rcu_read_unlock();
557         return clk;
558 }
559
560 static int _set_opp_voltage(struct device *dev, struct regulator *reg,
561                             unsigned long u_volt, unsigned long u_volt_min,
562                             unsigned long u_volt_max)
563 {
564         int ret;
565
566         /* Regulator not available for device */
567         if (IS_ERR(reg)) {
568                 dev_dbg(dev, "%s: regulator not available: %ld\n", __func__,
569                         PTR_ERR(reg));
570                 return 0;
571         }
572
573         dev_dbg(dev, "%s: voltages (mV): %lu %lu %lu\n", __func__, u_volt_min,
574                 u_volt, u_volt_max);
575
576         ret = regulator_set_voltage_triplet(reg, u_volt_min, u_volt,
577                                             u_volt_max);
578         if (ret)
579                 dev_err(dev, "%s: failed to set voltage (%lu %lu %lu mV): %d\n",
580                         __func__, u_volt_min, u_volt, u_volt_max, ret);
581
582         return ret;
583 }
584
585 /**
586  * dev_pm_opp_set_rate() - Configure new OPP based on frequency
587  * @dev:         device for which we do this operation
588  * @target_freq: frequency to achieve
589  *
590  * This configures the power-supplies and clock source to the levels specified
591  * by the OPP corresponding to the target_freq.
592  *
593  * Locking: This function takes rcu_read_lock().
594  */
595 int dev_pm_opp_set_rate(struct device *dev, unsigned long target_freq)
596 {
597         struct device_opp *dev_opp;
598         struct dev_pm_opp *old_opp, *opp;
599         struct regulator *reg;
600         struct clk *clk;
601         unsigned long freq, old_freq;
602         unsigned long u_volt, u_volt_min, u_volt_max;
603         unsigned long ou_volt, ou_volt_min, ou_volt_max;
604         int ret;
605
606         if (unlikely(!target_freq)) {
607                 dev_err(dev, "%s: Invalid target frequency %lu\n", __func__,
608                         target_freq);
609                 return -EINVAL;
610         }
611
612         clk = _get_opp_clk(dev);
613         if (IS_ERR(clk))
614                 return PTR_ERR(clk);
615
616         freq = clk_round_rate(clk, target_freq);
617         if ((long)freq <= 0)
618                 freq = target_freq;
619
620         old_freq = clk_get_rate(clk);
621
622         /* Return early if nothing to do */
623         if (old_freq == freq) {
624                 dev_dbg(dev, "%s: old/new frequencies (%lu Hz) are same, nothing to do\n",
625                         __func__, freq);
626                 return 0;
627         }
628
629         rcu_read_lock();
630
631         dev_opp = _find_device_opp(dev);
632         if (IS_ERR(dev_opp)) {
633                 dev_err(dev, "%s: device opp doesn't exist\n", __func__);
634                 rcu_read_unlock();
635                 return PTR_ERR(dev_opp);
636         }
637
638         old_opp = dev_pm_opp_find_freq_ceil(dev, &old_freq);
639         if (!IS_ERR(old_opp)) {
640                 ou_volt = old_opp->u_volt;
641                 ou_volt_min = old_opp->u_volt_min;
642                 ou_volt_max = old_opp->u_volt_max;
643         } else {
644                 dev_err(dev, "%s: failed to find current OPP for freq %lu (%ld)\n",
645                         __func__, old_freq, PTR_ERR(old_opp));
646         }
647
648         opp = dev_pm_opp_find_freq_ceil(dev, &freq);
649         if (IS_ERR(opp)) {
650                 ret = PTR_ERR(opp);
651                 dev_err(dev, "%s: failed to find OPP for freq %lu (%d)\n",
652                         __func__, freq, ret);
653                 rcu_read_unlock();
654                 return ret;
655         }
656
657         u_volt = opp->u_volt;
658         u_volt_min = opp->u_volt_min;
659         u_volt_max = opp->u_volt_max;
660
661         reg = dev_opp->regulator;
662
663         rcu_read_unlock();
664
665         /* Scaling up? Scale voltage before frequency */
666         if (freq > old_freq) {
667                 ret = _set_opp_voltage(dev, reg, u_volt, u_volt_min,
668                                        u_volt_max);
669                 if (ret)
670                         goto restore_voltage;
671         }
672
673         /* Change frequency */
674
675         dev_dbg(dev, "%s: switching OPP: %lu Hz --> %lu Hz\n",
676                 __func__, old_freq, freq);
677
678         ret = clk_set_rate(clk, freq);
679         if (ret) {
680                 dev_err(dev, "%s: failed to set clock rate: %d\n", __func__,
681                         ret);
682                 goto restore_voltage;
683         }
684
685         /* Scaling down? Scale voltage after frequency */
686         if (freq < old_freq) {
687                 ret = _set_opp_voltage(dev, reg, u_volt, u_volt_min,
688                                        u_volt_max);
689                 if (ret)
690                         goto restore_freq;
691         }
692
693         return 0;
694
695 restore_freq:
696         if (clk_set_rate(clk, old_freq))
697                 dev_err(dev, "%s: failed to restore old-freq (%lu Hz)\n",
698                         __func__, old_freq);
699 restore_voltage:
700         /* This shouldn't harm even if the voltages weren't updated earlier */
701         if (!IS_ERR(old_opp))
702                 _set_opp_voltage(dev, reg, ou_volt, ou_volt_min, ou_volt_max);
703
704         return ret;
705 }
706 EXPORT_SYMBOL_GPL(dev_pm_opp_set_rate);
707
708 /* List-dev Helpers */
709 static void _kfree_list_dev_rcu(struct rcu_head *head)
710 {
711         struct device_list_opp *list_dev;
712
713         list_dev = container_of(head, struct device_list_opp, rcu_head);
714         kfree_rcu(list_dev, rcu_head);
715 }
716
717 static void _remove_list_dev(struct device_list_opp *list_dev,
718                              struct device_opp *dev_opp)
719 {
720         opp_debug_unregister(list_dev, dev_opp);
721         list_del(&list_dev->node);
722         call_srcu(&dev_opp->srcu_head.srcu, &list_dev->rcu_head,
723                   _kfree_list_dev_rcu);
724 }
725
726 struct device_list_opp *_add_list_dev(const struct device *dev,
727                                       struct device_opp *dev_opp)
728 {
729         struct device_list_opp *list_dev;
730         int ret;
731
732         list_dev = kzalloc(sizeof(*list_dev), GFP_KERNEL);
733         if (!list_dev)
734                 return NULL;
735
736         /* Initialize list-dev */
737         list_dev->dev = dev;
738         list_add_rcu(&list_dev->node, &dev_opp->dev_list);
739
740         /* Create debugfs entries for the dev_opp */
741         ret = opp_debug_register(list_dev, dev_opp);
742         if (ret)
743                 dev_err(dev, "%s: Failed to register opp debugfs (%d)\n",
744                         __func__, ret);
745
746         return list_dev;
747 }
748
749 /**
750  * _add_device_opp() - Find device OPP table or allocate a new one
751  * @dev:        device for which we do this operation
752  *
753  * It tries to find an existing table first, if it couldn't find one, it
754  * allocates a new OPP table and returns that.
755  *
756  * Return: valid device_opp pointer if success, else NULL.
757  */
758 static struct device_opp *_add_device_opp(struct device *dev)
759 {
760         struct device_opp *dev_opp;
761         struct device_list_opp *list_dev;
762         struct device_node *np;
763         int ret;
764
765         /* Check for existing list for 'dev' first */
766         dev_opp = _find_device_opp(dev);
767         if (!IS_ERR(dev_opp))
768                 return dev_opp;
769
770         /*
771          * Allocate a new device OPP table. In the infrequent case where a new
772          * device is needed to be added, we pay this penalty.
773          */
774         dev_opp = kzalloc(sizeof(*dev_opp), GFP_KERNEL);
775         if (!dev_opp)
776                 return NULL;
777
778         INIT_LIST_HEAD(&dev_opp->dev_list);
779
780         list_dev = _add_list_dev(dev, dev_opp);
781         if (!list_dev) {
782                 kfree(dev_opp);
783                 return NULL;
784         }
785
786         /*
787          * Only required for backward compatibility with v1 bindings, but isn't
788          * harmful for other cases. And so we do it unconditionally.
789          */
790         np = of_node_get(dev->of_node);
791         if (np) {
792                 u32 val;
793
794                 if (!of_property_read_u32(np, "clock-latency", &val))
795                         dev_opp->clock_latency_ns_max = val;
796                 of_property_read_u32(np, "voltage-tolerance",
797                                      &dev_opp->voltage_tolerance_v1);
798                 of_node_put(np);
799         }
800
801         /* Find clk for the device */
802         dev_opp->clk = clk_get(dev, NULL);
803         if (IS_ERR(dev_opp->clk)) {
804                 ret = PTR_ERR(dev_opp->clk);
805                 if (ret != -EPROBE_DEFER)
806                         dev_dbg(dev, "%s: Couldn't find clock: %d\n", __func__,
807                                 ret);
808         }
809
810         srcu_init_notifier_head(&dev_opp->srcu_head);
811         INIT_LIST_HEAD(&dev_opp->opp_list);
812
813         /* Secure the device list modification */
814         list_add_rcu(&dev_opp->node, &dev_opp_list);
815         return dev_opp;
816 }
817
818 /**
819  * _kfree_device_rcu() - Free device_opp RCU handler
820  * @head:       RCU head
821  */
822 static void _kfree_device_rcu(struct rcu_head *head)
823 {
824         struct device_opp *device_opp = container_of(head, struct device_opp, rcu_head);
825
826         kfree_rcu(device_opp, rcu_head);
827 }
828
829 /**
830  * _remove_device_opp() - Removes a device OPP table
831  * @dev_opp: device OPP table to be removed.
832  *
833  * Removes/frees device OPP table it it doesn't contain any OPPs.
834  */
835 static void _remove_device_opp(struct device_opp *dev_opp)
836 {
837         struct device_list_opp *list_dev;
838
839         if (!list_empty(&dev_opp->opp_list))
840                 return;
841
842         if (dev_opp->supported_hw)
843                 return;
844
845         if (dev_opp->prop_name)
846                 return;
847
848         if (!IS_ERR_OR_NULL(dev_opp->regulator))
849                 return;
850
851         /* Release clk */
852         if (!IS_ERR(dev_opp->clk))
853                 clk_put(dev_opp->clk);
854
855         list_dev = list_first_entry(&dev_opp->dev_list, struct device_list_opp,
856                                     node);
857
858         _remove_list_dev(list_dev, dev_opp);
859
860         /* dev_list must be empty now */
861         WARN_ON(!list_empty(&dev_opp->dev_list));
862
863         list_del_rcu(&dev_opp->node);
864         call_srcu(&dev_opp->srcu_head.srcu, &dev_opp->rcu_head,
865                   _kfree_device_rcu);
866 }
867
868 /**
869  * _kfree_opp_rcu() - Free OPP RCU handler
870  * @head:       RCU head
871  */
872 static void _kfree_opp_rcu(struct rcu_head *head)
873 {
874         struct dev_pm_opp *opp = container_of(head, struct dev_pm_opp, rcu_head);
875
876         kfree_rcu(opp, rcu_head);
877 }
878
879 /**
880  * _opp_remove()  - Remove an OPP from a table definition
881  * @dev_opp:    points back to the device_opp struct this opp belongs to
882  * @opp:        pointer to the OPP to remove
883  * @notify:     OPP_EVENT_REMOVE notification should be sent or not
884  *
885  * This function removes an opp definition from the opp list.
886  *
887  * Locking: The internal device_opp and opp structures are RCU protected.
888  * It is assumed that the caller holds required mutex for an RCU updater
889  * strategy.
890  */
891 static void _opp_remove(struct device_opp *dev_opp,
892                         struct dev_pm_opp *opp, bool notify)
893 {
894         /*
895          * Notify the changes in the availability of the operable
896          * frequency/voltage list.
897          */
898         if (notify)
899                 srcu_notifier_call_chain(&dev_opp->srcu_head, OPP_EVENT_REMOVE, opp);
900         opp_debug_remove_one(opp);
901         list_del_rcu(&opp->node);
902         call_srcu(&dev_opp->srcu_head.srcu, &opp->rcu_head, _kfree_opp_rcu);
903
904         _remove_device_opp(dev_opp);
905 }
906
907 /**
908  * dev_pm_opp_remove()  - Remove an OPP from OPP list
909  * @dev:        device for which we do this operation
910  * @freq:       OPP to remove with matching 'freq'
911  *
912  * This function removes an opp from the opp list.
913  *
914  * Locking: The internal device_opp and opp structures are RCU protected.
915  * Hence this function internally uses RCU updater strategy with mutex locks
916  * to keep the integrity of the internal data structures. Callers should ensure
917  * that this function is *NOT* called under RCU protection or in contexts where
918  * mutex cannot be locked.
919  */
920 void dev_pm_opp_remove(struct device *dev, unsigned long freq)
921 {
922         struct dev_pm_opp *opp;
923         struct device_opp *dev_opp;
924         bool found = false;
925
926         /* Hold our list modification lock here */
927         mutex_lock(&dev_opp_list_lock);
928
929         dev_opp = _find_device_opp(dev);
930         if (IS_ERR(dev_opp))
931                 goto unlock;
932
933         list_for_each_entry(opp, &dev_opp->opp_list, node) {
934                 if (opp->rate == freq) {
935                         found = true;
936                         break;
937                 }
938         }
939
940         if (!found) {
941                 dev_warn(dev, "%s: Couldn't find OPP with freq: %lu\n",
942                          __func__, freq);
943                 goto unlock;
944         }
945
946         _opp_remove(dev_opp, opp, true);
947 unlock:
948         mutex_unlock(&dev_opp_list_lock);
949 }
950 EXPORT_SYMBOL_GPL(dev_pm_opp_remove);
951
952 static struct dev_pm_opp *_allocate_opp(struct device *dev,
953                                         struct device_opp **dev_opp)
954 {
955         struct dev_pm_opp *opp;
956
957         /* allocate new OPP node */
958         opp = kzalloc(sizeof(*opp), GFP_KERNEL);
959         if (!opp)
960                 return NULL;
961
962         INIT_LIST_HEAD(&opp->node);
963
964         *dev_opp = _add_device_opp(dev);
965         if (!*dev_opp) {
966                 kfree(opp);
967                 return NULL;
968         }
969
970         return opp;
971 }
972
973 static bool _opp_supported_by_regulators(struct dev_pm_opp *opp,
974                                          struct device_opp *dev_opp)
975 {
976         struct regulator *reg = dev_opp->regulator;
977
978         if (!IS_ERR(reg) &&
979             !regulator_is_supported_voltage(reg, opp->u_volt_min,
980                                             opp->u_volt_max)) {
981                 pr_warn("%s: OPP minuV: %lu maxuV: %lu, not supported by regulator\n",
982                         __func__, opp->u_volt_min, opp->u_volt_max);
983                 return false;
984         }
985
986         return true;
987 }
988
989 static int _opp_add(struct device *dev, struct dev_pm_opp *new_opp,
990                     struct device_opp *dev_opp)
991 {
992         struct dev_pm_opp *opp;
993         struct list_head *head = &dev_opp->opp_list;
994         int ret;
995
996         /*
997          * Insert new OPP in order of increasing frequency and discard if
998          * already present.
999          *
1000          * Need to use &dev_opp->opp_list in the condition part of the 'for'
1001          * loop, don't replace it with head otherwise it will become an infinite
1002          * loop.
1003          */
1004         list_for_each_entry_rcu(opp, &dev_opp->opp_list, node) {
1005                 if (new_opp->rate > opp->rate) {
1006                         head = &opp->node;
1007                         continue;
1008                 }
1009
1010                 if (new_opp->rate < opp->rate)
1011                         break;
1012
1013                 /* Duplicate OPPs */
1014                 dev_warn(dev, "%s: duplicate OPPs detected. Existing: freq: %lu, volt: %lu, enabled: %d. New: freq: %lu, volt: %lu, enabled: %d\n",
1015                          __func__, opp->rate, opp->u_volt, opp->available,
1016                          new_opp->rate, new_opp->u_volt, new_opp->available);
1017
1018                 return opp->available && new_opp->u_volt == opp->u_volt ?
1019                         0 : -EEXIST;
1020         }
1021
1022         new_opp->dev_opp = dev_opp;
1023         list_add_rcu(&new_opp->node, head);
1024
1025         ret = opp_debug_create_one(new_opp, dev_opp);
1026         if (ret)
1027                 dev_err(dev, "%s: Failed to register opp to debugfs (%d)\n",
1028                         __func__, ret);
1029
1030         if (!_opp_supported_by_regulators(new_opp, dev_opp)) {
1031                 new_opp->available = false;
1032                 dev_warn(dev, "%s: OPP not supported by regulators (%lu)\n",
1033                          __func__, new_opp->rate);
1034         }
1035
1036         return 0;
1037 }
1038
1039 /**
1040  * _opp_add_v1() - Allocate a OPP based on v1 bindings.
1041  * @dev:        device for which we do this operation
1042  * @freq:       Frequency in Hz for this OPP
1043  * @u_volt:     Voltage in uVolts for this OPP
1044  * @dynamic:    Dynamically added OPPs.
1045  *
1046  * This function adds an opp definition to the opp list and returns status.
1047  * The opp is made available by default and it can be controlled using
1048  * dev_pm_opp_enable/disable functions and may be removed by dev_pm_opp_remove.
1049  *
1050  * NOTE: "dynamic" parameter impacts OPPs added by the dev_pm_opp_of_add_table
1051  * and freed by dev_pm_opp_of_remove_table.
1052  *
1053  * Locking: The internal device_opp and opp structures are RCU protected.
1054  * Hence this function internally uses RCU updater strategy with mutex locks
1055  * to keep the integrity of the internal data structures. Callers should ensure
1056  * that this function is *NOT* called under RCU protection or in contexts where
1057  * mutex cannot be locked.
1058  *
1059  * Return:
1060  * 0            On success OR
1061  *              Duplicate OPPs (both freq and volt are same) and opp->available
1062  * -EEXIST      Freq are same and volt are different OR
1063  *              Duplicate OPPs (both freq and volt are same) and !opp->available
1064  * -ENOMEM      Memory allocation failure
1065  */
1066 static int _opp_add_v1(struct device *dev, unsigned long freq, long u_volt,
1067                        bool dynamic)
1068 {
1069         struct device_opp *dev_opp;
1070         struct dev_pm_opp *new_opp;
1071         unsigned long tol;
1072         int ret;
1073
1074         /* Hold our list modification lock here */
1075         mutex_lock(&dev_opp_list_lock);
1076
1077         new_opp = _allocate_opp(dev, &dev_opp);
1078         if (!new_opp) {
1079                 ret = -ENOMEM;
1080                 goto unlock;
1081         }
1082
1083         /* populate the opp table */
1084         new_opp->rate = freq;
1085         tol = u_volt * dev_opp->voltage_tolerance_v1 / 100;
1086         new_opp->u_volt = u_volt;
1087         new_opp->u_volt_min = u_volt - tol;
1088         new_opp->u_volt_max = u_volt + tol;
1089         new_opp->available = true;
1090         new_opp->dynamic = dynamic;
1091
1092         ret = _opp_add(dev, new_opp, dev_opp);
1093         if (ret)
1094                 goto free_opp;
1095
1096         mutex_unlock(&dev_opp_list_lock);
1097
1098         /*
1099          * Notify the changes in the availability of the operable
1100          * frequency/voltage list.
1101          */
1102         srcu_notifier_call_chain(&dev_opp->srcu_head, OPP_EVENT_ADD, new_opp);
1103         return 0;
1104
1105 free_opp:
1106         _opp_remove(dev_opp, new_opp, false);
1107 unlock:
1108         mutex_unlock(&dev_opp_list_lock);
1109         return ret;
1110 }
1111
1112 /* TODO: Support multiple regulators */
1113 static int opp_parse_supplies(struct dev_pm_opp *opp, struct device *dev,
1114                               struct device_opp *dev_opp)
1115 {
1116         u32 microvolt[3] = {0};
1117         u32 val;
1118         int count, ret;
1119         struct property *prop = NULL;
1120         char name[NAME_MAX];
1121
1122         /* Search for "opp-microvolt-<name>" */
1123         if (dev_opp->prop_name) {
1124                 snprintf(name, sizeof(name), "opp-microvolt-%s",
1125                          dev_opp->prop_name);
1126                 prop = of_find_property(opp->np, name, NULL);
1127         }
1128
1129         if (!prop) {
1130                 /* Search for "opp-microvolt" */
1131                 sprintf(name, "opp-microvolt");
1132                 prop = of_find_property(opp->np, name, NULL);
1133
1134                 /* Missing property isn't a problem, but an invalid entry is */
1135                 if (!prop)
1136                         return 0;
1137         }
1138
1139         count = of_property_count_u32_elems(opp->np, name);
1140         if (count < 0) {
1141                 dev_err(dev, "%s: Invalid %s property (%d)\n",
1142                         __func__, name, count);
1143                 return count;
1144         }
1145
1146         /* There can be one or three elements here */
1147         if (count != 1 && count != 3) {
1148                 dev_err(dev, "%s: Invalid number of elements in %s property (%d)\n",
1149                         __func__, name, count);
1150                 return -EINVAL;
1151         }
1152
1153         ret = of_property_read_u32_array(opp->np, name, microvolt, count);
1154         if (ret) {
1155                 dev_err(dev, "%s: error parsing %s: %d\n", __func__, name, ret);
1156                 return -EINVAL;
1157         }
1158
1159         opp->u_volt = microvolt[0];
1160         opp->u_volt_min = microvolt[1];
1161         opp->u_volt_max = microvolt[2];
1162
1163         /* Search for "opp-microamp-<name>" */
1164         prop = NULL;
1165         if (dev_opp->prop_name) {
1166                 snprintf(name, sizeof(name), "opp-microamp-%s",
1167                          dev_opp->prop_name);
1168                 prop = of_find_property(opp->np, name, NULL);
1169         }
1170
1171         if (!prop) {
1172                 /* Search for "opp-microamp" */
1173                 sprintf(name, "opp-microamp");
1174                 prop = of_find_property(opp->np, name, NULL);
1175         }
1176
1177         if (prop && !of_property_read_u32(opp->np, name, &val))
1178                 opp->u_amp = val;
1179
1180         return 0;
1181 }
1182
1183 /**
1184  * dev_pm_opp_set_supported_hw() - Set supported platforms
1185  * @dev: Device for which supported-hw has to be set.
1186  * @versions: Array of hierarchy of versions to match.
1187  * @count: Number of elements in the array.
1188  *
1189  * This is required only for the V2 bindings, and it enables a platform to
1190  * specify the hierarchy of versions it supports. OPP layer will then enable
1191  * OPPs, which are available for those versions, based on its 'opp-supported-hw'
1192  * property.
1193  *
1194  * Locking: The internal device_opp and opp structures are RCU protected.
1195  * Hence this function internally uses RCU updater strategy with mutex locks
1196  * to keep the integrity of the internal data structures. Callers should ensure
1197  * that this function is *NOT* called under RCU protection or in contexts where
1198  * mutex cannot be locked.
1199  */
1200 int dev_pm_opp_set_supported_hw(struct device *dev, const u32 *versions,
1201                                 unsigned int count)
1202 {
1203         struct device_opp *dev_opp;
1204         int ret = 0;
1205
1206         /* Hold our list modification lock here */
1207         mutex_lock(&dev_opp_list_lock);
1208
1209         dev_opp = _add_device_opp(dev);
1210         if (!dev_opp) {
1211                 ret = -ENOMEM;
1212                 goto unlock;
1213         }
1214
1215         /* Make sure there are no concurrent readers while updating dev_opp */
1216         WARN_ON(!list_empty(&dev_opp->opp_list));
1217
1218         /* Do we already have a version hierarchy associated with dev_opp? */
1219         if (dev_opp->supported_hw) {
1220                 dev_err(dev, "%s: Already have supported hardware list\n",
1221                         __func__);
1222                 ret = -EBUSY;
1223                 goto err;
1224         }
1225
1226         dev_opp->supported_hw = kmemdup(versions, count * sizeof(*versions),
1227                                         GFP_KERNEL);
1228         if (!dev_opp->supported_hw) {
1229                 ret = -ENOMEM;
1230                 goto err;
1231         }
1232
1233         dev_opp->supported_hw_count = count;
1234         mutex_unlock(&dev_opp_list_lock);
1235         return 0;
1236
1237 err:
1238         _remove_device_opp(dev_opp);
1239 unlock:
1240         mutex_unlock(&dev_opp_list_lock);
1241
1242         return ret;
1243 }
1244 EXPORT_SYMBOL_GPL(dev_pm_opp_set_supported_hw);
1245
1246 /**
1247  * dev_pm_opp_put_supported_hw() - Releases resources blocked for supported hw
1248  * @dev: Device for which supported-hw has to be set.
1249  *
1250  * This is required only for the V2 bindings, and is called for a matching
1251  * dev_pm_opp_set_supported_hw(). Until this is called, the device_opp structure
1252  * will not be freed.
1253  *
1254  * Locking: The internal device_opp and opp structures are RCU protected.
1255  * Hence this function internally uses RCU updater strategy with mutex locks
1256  * to keep the integrity of the internal data structures. Callers should ensure
1257  * that this function is *NOT* called under RCU protection or in contexts where
1258  * mutex cannot be locked.
1259  */
1260 void dev_pm_opp_put_supported_hw(struct device *dev)
1261 {
1262         struct device_opp *dev_opp;
1263
1264         /* Hold our list modification lock here */
1265         mutex_lock(&dev_opp_list_lock);
1266
1267         /* Check for existing list for 'dev' first */
1268         dev_opp = _find_device_opp(dev);
1269         if (IS_ERR(dev_opp)) {
1270                 dev_err(dev, "Failed to find dev_opp: %ld\n", PTR_ERR(dev_opp));
1271                 goto unlock;
1272         }
1273
1274         /* Make sure there are no concurrent readers while updating dev_opp */
1275         WARN_ON(!list_empty(&dev_opp->opp_list));
1276
1277         if (!dev_opp->supported_hw) {
1278                 dev_err(dev, "%s: Doesn't have supported hardware list\n",
1279                         __func__);
1280                 goto unlock;
1281         }
1282
1283         kfree(dev_opp->supported_hw);
1284         dev_opp->supported_hw = NULL;
1285         dev_opp->supported_hw_count = 0;
1286
1287         /* Try freeing device_opp if this was the last blocking resource */
1288         _remove_device_opp(dev_opp);
1289
1290 unlock:
1291         mutex_unlock(&dev_opp_list_lock);
1292 }
1293 EXPORT_SYMBOL_GPL(dev_pm_opp_put_supported_hw);
1294
1295 /**
1296  * dev_pm_opp_set_prop_name() - Set prop-extn name
1297  * @dev: Device for which the regulator has to be set.
1298  * @name: name to postfix to properties.
1299  *
1300  * This is required only for the V2 bindings, and it enables a platform to
1301  * specify the extn to be used for certain property names. The properties to
1302  * which the extension will apply are opp-microvolt and opp-microamp. OPP core
1303  * should postfix the property name with -<name> while looking for them.
1304  *
1305  * Locking: The internal device_opp and opp structures are RCU protected.
1306  * Hence this function internally uses RCU updater strategy with mutex locks
1307  * to keep the integrity of the internal data structures. Callers should ensure
1308  * that this function is *NOT* called under RCU protection or in contexts where
1309  * mutex cannot be locked.
1310  */
1311 int dev_pm_opp_set_prop_name(struct device *dev, const char *name)
1312 {
1313         struct device_opp *dev_opp;
1314         int ret = 0;
1315
1316         /* Hold our list modification lock here */
1317         mutex_lock(&dev_opp_list_lock);
1318
1319         dev_opp = _add_device_opp(dev);
1320         if (!dev_opp) {
1321                 ret = -ENOMEM;
1322                 goto unlock;
1323         }
1324
1325         /* Make sure there are no concurrent readers while updating dev_opp */
1326         WARN_ON(!list_empty(&dev_opp->opp_list));
1327
1328         /* Do we already have a prop-name associated with dev_opp? */
1329         if (dev_opp->prop_name) {
1330                 dev_err(dev, "%s: Already have prop-name %s\n", __func__,
1331                         dev_opp->prop_name);
1332                 ret = -EBUSY;
1333                 goto err;
1334         }
1335
1336         dev_opp->prop_name = kstrdup(name, GFP_KERNEL);
1337         if (!dev_opp->prop_name) {
1338                 ret = -ENOMEM;
1339                 goto err;
1340         }
1341
1342         mutex_unlock(&dev_opp_list_lock);
1343         return 0;
1344
1345 err:
1346         _remove_device_opp(dev_opp);
1347 unlock:
1348         mutex_unlock(&dev_opp_list_lock);
1349
1350         return ret;
1351 }
1352 EXPORT_SYMBOL_GPL(dev_pm_opp_set_prop_name);
1353
1354 /**
1355  * dev_pm_opp_put_prop_name() - Releases resources blocked for prop-name
1356  * @dev: Device for which the regulator has to be set.
1357  *
1358  * This is required only for the V2 bindings, and is called for a matching
1359  * dev_pm_opp_set_prop_name(). Until this is called, the device_opp structure
1360  * will not be freed.
1361  *
1362  * Locking: The internal device_opp and opp structures are RCU protected.
1363  * Hence this function internally uses RCU updater strategy with mutex locks
1364  * to keep the integrity of the internal data structures. Callers should ensure
1365  * that this function is *NOT* called under RCU protection or in contexts where
1366  * mutex cannot be locked.
1367  */
1368 void dev_pm_opp_put_prop_name(struct device *dev)
1369 {
1370         struct device_opp *dev_opp;
1371
1372         /* Hold our list modification lock here */
1373         mutex_lock(&dev_opp_list_lock);
1374
1375         /* Check for existing list for 'dev' first */
1376         dev_opp = _find_device_opp(dev);
1377         if (IS_ERR(dev_opp)) {
1378                 dev_err(dev, "Failed to find dev_opp: %ld\n", PTR_ERR(dev_opp));
1379                 goto unlock;
1380         }
1381
1382         /* Make sure there are no concurrent readers while updating dev_opp */
1383         WARN_ON(!list_empty(&dev_opp->opp_list));
1384
1385         if (!dev_opp->prop_name) {
1386                 dev_err(dev, "%s: Doesn't have a prop-name\n", __func__);
1387                 goto unlock;
1388         }
1389
1390         kfree(dev_opp->prop_name);
1391         dev_opp->prop_name = NULL;
1392
1393         /* Try freeing device_opp if this was the last blocking resource */
1394         _remove_device_opp(dev_opp);
1395
1396 unlock:
1397         mutex_unlock(&dev_opp_list_lock);
1398 }
1399 EXPORT_SYMBOL_GPL(dev_pm_opp_put_prop_name);
1400
1401 /**
1402  * dev_pm_opp_set_regulator() - Set regulator name for the device
1403  * @dev: Device for which regulator name is being set.
1404  * @name: Name of the regulator.
1405  *
1406  * In order to support OPP switching, OPP layer needs to know the name of the
1407  * device's regulator, as the core would be required to switch voltages as well.
1408  *
1409  * This must be called before any OPPs are initialized for the device.
1410  *
1411  * Locking: The internal device_opp and opp structures are RCU protected.
1412  * Hence this function internally uses RCU updater strategy with mutex locks
1413  * to keep the integrity of the internal data structures. Callers should ensure
1414  * that this function is *NOT* called under RCU protection or in contexts where
1415  * mutex cannot be locked.
1416  */
1417 int dev_pm_opp_set_regulator(struct device *dev, const char *name)
1418 {
1419         struct device_opp *dev_opp;
1420         struct regulator *reg;
1421         int ret;
1422
1423         mutex_lock(&dev_opp_list_lock);
1424
1425         dev_opp = _add_device_opp(dev);
1426         if (!dev_opp) {
1427                 ret = -ENOMEM;
1428                 goto unlock;
1429         }
1430
1431         /* This should be called before OPPs are initialized */
1432         if (WARN_ON(!list_empty(&dev_opp->opp_list))) {
1433                 ret = -EBUSY;
1434                 goto err;
1435         }
1436
1437         /* Already have a regulator set */
1438         if (WARN_ON(!IS_ERR_OR_NULL(dev_opp->regulator))) {
1439                 ret = -EBUSY;
1440                 goto err;
1441         }
1442         /* Allocate the regulator */
1443         reg = regulator_get_optional(dev, name);
1444         if (IS_ERR(reg)) {
1445                 ret = PTR_ERR(reg);
1446                 if (ret != -EPROBE_DEFER)
1447                         dev_err(dev, "%s: no regulator (%s) found: %d\n",
1448                                 __func__, name, ret);
1449                 goto err;
1450         }
1451
1452         dev_opp->regulator = reg;
1453
1454         mutex_unlock(&dev_opp_list_lock);
1455         return 0;
1456
1457 err:
1458         _remove_device_opp(dev_opp);
1459 unlock:
1460         mutex_unlock(&dev_opp_list_lock);
1461
1462         return ret;
1463 }
1464 EXPORT_SYMBOL_GPL(dev_pm_opp_set_regulator);
1465
1466 /**
1467  * dev_pm_opp_put_regulator() - Releases resources blocked for regulator
1468  * @dev: Device for which regulator was set.
1469  *
1470  * Locking: The internal device_opp and opp structures are RCU protected.
1471  * Hence this function internally uses RCU updater strategy with mutex locks
1472  * to keep the integrity of the internal data structures. Callers should ensure
1473  * that this function is *NOT* called under RCU protection or in contexts where
1474  * mutex cannot be locked.
1475  */
1476 void dev_pm_opp_put_regulator(struct device *dev)
1477 {
1478         struct device_opp *dev_opp;
1479
1480         mutex_lock(&dev_opp_list_lock);
1481
1482         /* Check for existing list for 'dev' first */
1483         dev_opp = _find_device_opp(dev);
1484         if (IS_ERR(dev_opp)) {
1485                 dev_err(dev, "Failed to find dev_opp: %ld\n", PTR_ERR(dev_opp));
1486                 goto unlock;
1487         }
1488
1489         if (IS_ERR_OR_NULL(dev_opp->regulator)) {
1490                 dev_err(dev, "%s: Doesn't have regulator set\n", __func__);
1491                 goto unlock;
1492         }
1493
1494         /* Make sure there are no concurrent readers while updating dev_opp */
1495         WARN_ON(!list_empty(&dev_opp->opp_list));
1496
1497         regulator_put(dev_opp->regulator);
1498         dev_opp->regulator = ERR_PTR(-EINVAL);
1499
1500         /* Try freeing device_opp if this was the last blocking resource */
1501         _remove_device_opp(dev_opp);
1502
1503 unlock:
1504         mutex_unlock(&dev_opp_list_lock);
1505 }
1506 EXPORT_SYMBOL_GPL(dev_pm_opp_put_regulator);
1507
1508 static bool _opp_is_supported(struct device *dev, struct device_opp *dev_opp,
1509                               struct device_node *np)
1510 {
1511         unsigned int count = dev_opp->supported_hw_count;
1512         u32 version;
1513         int ret;
1514
1515         if (!dev_opp->supported_hw)
1516                 return true;
1517
1518         while (count--) {
1519                 ret = of_property_read_u32_index(np, "opp-supported-hw", count,
1520                                                  &version);
1521                 if (ret) {
1522                         dev_warn(dev, "%s: failed to read opp-supported-hw property at index %d: %d\n",
1523                                  __func__, count, ret);
1524                         return false;
1525                 }
1526
1527                 /* Both of these are bitwise masks of the versions */
1528                 if (!(version & dev_opp->supported_hw[count]))
1529                         return false;
1530         }
1531
1532         return true;
1533 }
1534
1535 /**
1536  * _opp_add_static_v2() - Allocate static OPPs (As per 'v2' DT bindings)
1537  * @dev:        device for which we do this operation
1538  * @np:         device node
1539  *
1540  * This function adds an opp definition to the opp list and returns status. The
1541  * opp can be controlled using dev_pm_opp_enable/disable functions and may be
1542  * removed by dev_pm_opp_remove.
1543  *
1544  * Locking: The internal device_opp and opp structures are RCU protected.
1545  * Hence this function internally uses RCU updater strategy with mutex locks
1546  * to keep the integrity of the internal data structures. Callers should ensure
1547  * that this function is *NOT* called under RCU protection or in contexts where
1548  * mutex cannot be locked.
1549  *
1550  * Return:
1551  * 0            On success OR
1552  *              Duplicate OPPs (both freq and volt are same) and opp->available
1553  * -EEXIST      Freq are same and volt are different OR
1554  *              Duplicate OPPs (both freq and volt are same) and !opp->available
1555  * -ENOMEM      Memory allocation failure
1556  * -EINVAL      Failed parsing the OPP node
1557  */
1558 static int _opp_add_static_v2(struct device *dev, struct device_node *np)
1559 {
1560         struct device_opp *dev_opp;
1561         struct dev_pm_opp *new_opp;
1562         u64 rate;
1563         u32 val;
1564         int ret;
1565
1566         /* Hold our list modification lock here */
1567         mutex_lock(&dev_opp_list_lock);
1568
1569         new_opp = _allocate_opp(dev, &dev_opp);
1570         if (!new_opp) {
1571                 ret = -ENOMEM;
1572                 goto unlock;
1573         }
1574
1575         ret = of_property_read_u64(np, "opp-hz", &rate);
1576         if (ret < 0) {
1577                 dev_err(dev, "%s: opp-hz not found\n", __func__);
1578                 goto free_opp;
1579         }
1580
1581         /* Check if the OPP supports hardware's hierarchy of versions or not */
1582         if (!_opp_is_supported(dev, dev_opp, np)) {
1583                 dev_dbg(dev, "OPP not supported by hardware: %llu\n", rate);
1584                 goto free_opp;
1585         }
1586
1587         /*
1588          * Rate is defined as an unsigned long in clk API, and so casting
1589          * explicitly to its type. Must be fixed once rate is 64 bit
1590          * guaranteed in clk API.
1591          */
1592         new_opp->rate = (unsigned long)rate;
1593         new_opp->turbo = of_property_read_bool(np, "turbo-mode");
1594
1595         new_opp->np = np;
1596         new_opp->dynamic = false;
1597         new_opp->available = true;
1598
1599         if (!of_property_read_u32(np, "clock-latency-ns", &val))
1600                 new_opp->clock_latency_ns = val;
1601
1602         ret = opp_parse_supplies(new_opp, dev, dev_opp);
1603         if (ret)
1604                 goto free_opp;
1605
1606         ret = _opp_add(dev, new_opp, dev_opp);
1607         if (ret)
1608                 goto free_opp;
1609
1610         /* OPP to select on device suspend */
1611         if (of_property_read_bool(np, "opp-suspend")) {
1612                 if (dev_opp->suspend_opp) {
1613                         dev_warn(dev, "%s: Multiple suspend OPPs found (%lu %lu)\n",
1614                                  __func__, dev_opp->suspend_opp->rate,
1615                                  new_opp->rate);
1616                 } else {
1617                         new_opp->suspend = true;
1618                         dev_opp->suspend_opp = new_opp;
1619                 }
1620         }
1621
1622         if (new_opp->clock_latency_ns > dev_opp->clock_latency_ns_max)
1623                 dev_opp->clock_latency_ns_max = new_opp->clock_latency_ns;
1624
1625         mutex_unlock(&dev_opp_list_lock);
1626
1627         pr_debug("%s: turbo:%d rate:%lu uv:%lu uvmin:%lu uvmax:%lu latency:%lu\n",
1628                  __func__, new_opp->turbo, new_opp->rate, new_opp->u_volt,
1629                  new_opp->u_volt_min, new_opp->u_volt_max,
1630                  new_opp->clock_latency_ns);
1631
1632         /*
1633          * Notify the changes in the availability of the operable
1634          * frequency/voltage list.
1635          */
1636         srcu_notifier_call_chain(&dev_opp->srcu_head, OPP_EVENT_ADD, new_opp);
1637         return 0;
1638
1639 free_opp:
1640         _opp_remove(dev_opp, new_opp, false);
1641 unlock:
1642         mutex_unlock(&dev_opp_list_lock);
1643         return ret;
1644 }
1645
1646 /**
1647  * dev_pm_opp_add()  - Add an OPP table from a table definitions
1648  * @dev:        device for which we do this operation
1649  * @freq:       Frequency in Hz for this OPP
1650  * @u_volt:     Voltage in uVolts for this OPP
1651  *
1652  * This function adds an opp definition to the opp list and returns status.
1653  * The opp is made available by default and it can be controlled using
1654  * dev_pm_opp_enable/disable functions.
1655  *
1656  * Locking: The internal device_opp and opp structures are RCU protected.
1657  * Hence this function internally uses RCU updater strategy with mutex locks
1658  * to keep the integrity of the internal data structures. Callers should ensure
1659  * that this function is *NOT* called under RCU protection or in contexts where
1660  * mutex cannot be locked.
1661  *
1662  * Return:
1663  * 0            On success OR
1664  *              Duplicate OPPs (both freq and volt are same) and opp->available
1665  * -EEXIST      Freq are same and volt are different OR
1666  *              Duplicate OPPs (both freq and volt are same) and !opp->available
1667  * -ENOMEM      Memory allocation failure
1668  */
1669 int dev_pm_opp_add(struct device *dev, unsigned long freq, unsigned long u_volt)
1670 {
1671         return _opp_add_v1(dev, freq, u_volt, true);
1672 }
1673 EXPORT_SYMBOL_GPL(dev_pm_opp_add);
1674
1675 /**
1676  * _opp_set_availability() - helper to set the availability of an opp
1677  * @dev:                device for which we do this operation
1678  * @freq:               OPP frequency to modify availability
1679  * @availability_req:   availability status requested for this opp
1680  *
1681  * Set the availability of an OPP with an RCU operation, opp_{enable,disable}
1682  * share a common logic which is isolated here.
1683  *
1684  * Return: -EINVAL for bad pointers, -ENOMEM if no memory available for the
1685  * copy operation, returns 0 if no modification was done OR modification was
1686  * successful.
1687  *
1688  * Locking: The internal device_opp and opp structures are RCU protected.
1689  * Hence this function internally uses RCU updater strategy with mutex locks to
1690  * keep the integrity of the internal data structures. Callers should ensure
1691  * that this function is *NOT* called under RCU protection or in contexts where
1692  * mutex locking or synchronize_rcu() blocking calls cannot be used.
1693  */
1694 static int _opp_set_availability(struct device *dev, unsigned long freq,
1695                                  bool availability_req)
1696 {
1697         struct device_opp *dev_opp;
1698         struct dev_pm_opp *new_opp, *tmp_opp, *opp = ERR_PTR(-ENODEV);
1699         int r = 0;
1700
1701         /* keep the node allocated */
1702         new_opp = kmalloc(sizeof(*new_opp), GFP_KERNEL);
1703         if (!new_opp)
1704                 return -ENOMEM;
1705
1706         mutex_lock(&dev_opp_list_lock);
1707
1708         /* Find the device_opp */
1709         dev_opp = _find_device_opp(dev);
1710         if (IS_ERR(dev_opp)) {
1711                 r = PTR_ERR(dev_opp);
1712                 dev_warn(dev, "%s: Device OPP not found (%d)\n", __func__, r);
1713                 goto unlock;
1714         }
1715
1716         /* Do we have the frequency? */
1717         list_for_each_entry(tmp_opp, &dev_opp->opp_list, node) {
1718                 if (tmp_opp->rate == freq) {
1719                         opp = tmp_opp;
1720                         break;
1721                 }
1722         }
1723         if (IS_ERR(opp)) {
1724                 r = PTR_ERR(opp);
1725                 goto unlock;
1726         }
1727
1728         /* Is update really needed? */
1729         if (opp->available == availability_req)
1730                 goto unlock;
1731         /* copy the old data over */
1732         *new_opp = *opp;
1733
1734         /* plug in new node */
1735         new_opp->available = availability_req;
1736
1737         list_replace_rcu(&opp->node, &new_opp->node);
1738         mutex_unlock(&dev_opp_list_lock);
1739         call_srcu(&dev_opp->srcu_head.srcu, &opp->rcu_head, _kfree_opp_rcu);
1740
1741         /* Notify the change of the OPP availability */
1742         if (availability_req)
1743                 srcu_notifier_call_chain(&dev_opp->srcu_head, OPP_EVENT_ENABLE,
1744                                          new_opp);
1745         else
1746                 srcu_notifier_call_chain(&dev_opp->srcu_head, OPP_EVENT_DISABLE,
1747                                          new_opp);
1748
1749         return 0;
1750
1751 unlock:
1752         mutex_unlock(&dev_opp_list_lock);
1753         kfree(new_opp);
1754         return r;
1755 }
1756
1757 /**
1758  * dev_pm_opp_enable() - Enable a specific OPP
1759  * @dev:        device for which we do this operation
1760  * @freq:       OPP frequency to enable
1761  *
1762  * Enables a provided opp. If the operation is valid, this returns 0, else the
1763  * corresponding error value. It is meant to be used for users an OPP available
1764  * after being temporarily made unavailable with dev_pm_opp_disable.
1765  *
1766  * Locking: The internal device_opp and opp structures are RCU protected.
1767  * Hence this function indirectly uses RCU and mutex locks to keep the
1768  * integrity of the internal data structures. Callers should ensure that
1769  * this function is *NOT* called under RCU protection or in contexts where
1770  * mutex locking or synchronize_rcu() blocking calls cannot be used.
1771  *
1772  * Return: -EINVAL for bad pointers, -ENOMEM if no memory available for the
1773  * copy operation, returns 0 if no modification was done OR modification was
1774  * successful.
1775  */
1776 int dev_pm_opp_enable(struct device *dev, unsigned long freq)
1777 {
1778         return _opp_set_availability(dev, freq, true);
1779 }
1780 EXPORT_SYMBOL_GPL(dev_pm_opp_enable);
1781
1782 /**
1783  * dev_pm_opp_disable() - Disable a specific OPP
1784  * @dev:        device for which we do this operation
1785  * @freq:       OPP frequency to disable
1786  *
1787  * Disables a provided opp. If the operation is valid, this returns
1788  * 0, else the corresponding error value. It is meant to be a temporary
1789  * control by users to make this OPP not available until the circumstances are
1790  * right to make it available again (with a call to dev_pm_opp_enable).
1791  *
1792  * Locking: The internal device_opp and opp structures are RCU protected.
1793  * Hence this function indirectly uses RCU and mutex locks to keep the
1794  * integrity of the internal data structures. Callers should ensure that
1795  * this function is *NOT* called under RCU protection or in contexts where
1796  * mutex locking or synchronize_rcu() blocking calls cannot be used.
1797  *
1798  * Return: -EINVAL for bad pointers, -ENOMEM if no memory available for the
1799  * copy operation, returns 0 if no modification was done OR modification was
1800  * successful.
1801  */
1802 int dev_pm_opp_disable(struct device *dev, unsigned long freq)
1803 {
1804         return _opp_set_availability(dev, freq, false);
1805 }
1806 EXPORT_SYMBOL_GPL(dev_pm_opp_disable);
1807
1808 /**
1809  * dev_pm_opp_get_notifier() - find notifier_head of the device with opp
1810  * @dev:        device pointer used to lookup device OPPs.
1811  *
1812  * Return: pointer to  notifier head if found, otherwise -ENODEV or
1813  * -EINVAL based on type of error casted as pointer. value must be checked
1814  *  with IS_ERR to determine valid pointer or error result.
1815  *
1816  * Locking: This function must be called under rcu_read_lock(). dev_opp is a RCU
1817  * protected pointer. The reason for the same is that the opp pointer which is
1818  * returned will remain valid for use with opp_get_{voltage, freq} only while
1819  * under the locked area. The pointer returned must be used prior to unlocking
1820  * with rcu_read_unlock() to maintain the integrity of the pointer.
1821  */
1822 struct srcu_notifier_head *dev_pm_opp_get_notifier(struct device *dev)
1823 {
1824         struct device_opp *dev_opp = _find_device_opp(dev);
1825
1826         if (IS_ERR(dev_opp))
1827                 return ERR_CAST(dev_opp); /* matching type */
1828
1829         return &dev_opp->srcu_head;
1830 }
1831 EXPORT_SYMBOL_GPL(dev_pm_opp_get_notifier);
1832
1833 #ifdef CONFIG_OF
1834 /**
1835  * dev_pm_opp_of_remove_table() - Free OPP table entries created from static DT
1836  *                                entries
1837  * @dev:        device pointer used to lookup device OPPs.
1838  *
1839  * Free OPPs created using static entries present in DT.
1840  *
1841  * Locking: The internal device_opp and opp structures are RCU protected.
1842  * Hence this function indirectly uses RCU updater strategy with mutex locks
1843  * to keep the integrity of the internal data structures. Callers should ensure
1844  * that this function is *NOT* called under RCU protection or in contexts where
1845  * mutex cannot be locked.
1846  */
1847 void dev_pm_opp_of_remove_table(struct device *dev)
1848 {
1849         struct device_opp *dev_opp;
1850         struct dev_pm_opp *opp, *tmp;
1851
1852         /* Hold our list modification lock here */
1853         mutex_lock(&dev_opp_list_lock);
1854
1855         /* Check for existing list for 'dev' */
1856         dev_opp = _find_device_opp(dev);
1857         if (IS_ERR(dev_opp)) {
1858                 int error = PTR_ERR(dev_opp);
1859
1860                 if (error != -ENODEV)
1861                         WARN(1, "%s: dev_opp: %d\n",
1862                              IS_ERR_OR_NULL(dev) ?
1863                                         "Invalid device" : dev_name(dev),
1864                              error);
1865                 goto unlock;
1866         }
1867
1868         /* Find if dev_opp manages a single device */
1869         if (list_is_singular(&dev_opp->dev_list)) {
1870                 /* Free static OPPs */
1871                 list_for_each_entry_safe(opp, tmp, &dev_opp->opp_list, node) {
1872                         if (!opp->dynamic)
1873                                 _opp_remove(dev_opp, opp, true);
1874                 }
1875         } else {
1876                 _remove_list_dev(_find_list_dev(dev, dev_opp), dev_opp);
1877         }
1878
1879 unlock:
1880         mutex_unlock(&dev_opp_list_lock);
1881 }
1882 EXPORT_SYMBOL_GPL(dev_pm_opp_of_remove_table);
1883
1884 /* Returns opp descriptor node for a device, caller must do of_node_put() */
1885 struct device_node *_of_get_opp_desc_node(struct device *dev)
1886 {
1887         /*
1888          * TODO: Support for multiple OPP tables.
1889          *
1890          * There should be only ONE phandle present in "operating-points-v2"
1891          * property.
1892          */
1893
1894         return of_parse_phandle(dev->of_node, "operating-points-v2", 0);
1895 }
1896
1897 /* Initializes OPP tables based on new bindings */
1898 static int _of_add_opp_table_v2(struct device *dev, struct device_node *opp_np)
1899 {
1900         struct device_node *np;
1901         struct device_opp *dev_opp;
1902         int ret = 0, count = 0;
1903
1904         mutex_lock(&dev_opp_list_lock);
1905
1906         dev_opp = _managed_opp(opp_np);
1907         if (dev_opp) {
1908                 /* OPPs are already managed */
1909                 if (!_add_list_dev(dev, dev_opp))
1910                         ret = -ENOMEM;
1911                 mutex_unlock(&dev_opp_list_lock);
1912                 return ret;
1913         }
1914         mutex_unlock(&dev_opp_list_lock);
1915
1916         /* We have opp-list node now, iterate over it and add OPPs */
1917         for_each_available_child_of_node(opp_np, np) {
1918                 count++;
1919
1920                 ret = _opp_add_static_v2(dev, np);
1921                 if (ret) {
1922                         dev_err(dev, "%s: Failed to add OPP, %d\n", __func__,
1923                                 ret);
1924                         goto free_table;
1925                 }
1926         }
1927
1928         /* There should be one of more OPP defined */
1929         if (WARN_ON(!count))
1930                 return -ENOENT;
1931
1932         mutex_lock(&dev_opp_list_lock);
1933
1934         dev_opp = _find_device_opp(dev);
1935         if (WARN_ON(IS_ERR(dev_opp))) {
1936                 ret = PTR_ERR(dev_opp);
1937                 mutex_unlock(&dev_opp_list_lock);
1938                 goto free_table;
1939         }
1940
1941         dev_opp->np = opp_np;
1942         dev_opp->shared_opp = of_property_read_bool(opp_np, "opp-shared");
1943
1944         mutex_unlock(&dev_opp_list_lock);
1945
1946         return 0;
1947
1948 free_table:
1949         dev_pm_opp_of_remove_table(dev);
1950
1951         return ret;
1952 }
1953
1954 /* Initializes OPP tables based on old-deprecated bindings */
1955 static int _of_add_opp_table_v1(struct device *dev)
1956 {
1957         const struct property *prop;
1958         const __be32 *val;
1959         int nr;
1960
1961         prop = of_find_property(dev->of_node, "operating-points", NULL);
1962         if (!prop)
1963                 return -ENODEV;
1964         if (!prop->value)
1965                 return -ENODATA;
1966
1967         /*
1968          * Each OPP is a set of tuples consisting of frequency and
1969          * voltage like <freq-kHz vol-uV>.
1970          */
1971         nr = prop->length / sizeof(u32);
1972         if (nr % 2) {
1973                 dev_err(dev, "%s: Invalid OPP list\n", __func__);
1974                 return -EINVAL;
1975         }
1976
1977         val = prop->value;
1978         while (nr) {
1979                 unsigned long freq = be32_to_cpup(val++) * 1000;
1980                 unsigned long volt = be32_to_cpup(val++);
1981
1982                 if (_opp_add_v1(dev, freq, volt, false))
1983                         dev_warn(dev, "%s: Failed to add OPP %ld\n",
1984                                  __func__, freq);
1985                 nr -= 2;
1986         }
1987
1988         return 0;
1989 }
1990
1991 /**
1992  * dev_pm_opp_of_add_table() - Initialize opp table from device tree
1993  * @dev:        device pointer used to lookup device OPPs.
1994  *
1995  * Register the initial OPP table with the OPP library for given device.
1996  *
1997  * Locking: The internal device_opp and opp structures are RCU protected.
1998  * Hence this function indirectly uses RCU updater strategy with mutex locks
1999  * to keep the integrity of the internal data structures. Callers should ensure
2000  * that this function is *NOT* called under RCU protection or in contexts where
2001  * mutex cannot be locked.
2002  *
2003  * Return:
2004  * 0            On success OR
2005  *              Duplicate OPPs (both freq and volt are same) and opp->available
2006  * -EEXIST      Freq are same and volt are different OR
2007  *              Duplicate OPPs (both freq and volt are same) and !opp->available
2008  * -ENOMEM      Memory allocation failure
2009  * -ENODEV      when 'operating-points' property is not found or is invalid data
2010  *              in device node.
2011  * -ENODATA     when empty 'operating-points' property is found
2012  * -EINVAL      when invalid entries are found in opp-v2 table
2013  */
2014 int dev_pm_opp_of_add_table(struct device *dev)
2015 {
2016         struct device_node *opp_np;
2017         int ret;
2018
2019         /*
2020          * OPPs have two version of bindings now. The older one is deprecated,
2021          * try for the new binding first.
2022          */
2023         opp_np = _of_get_opp_desc_node(dev);
2024         if (!opp_np) {
2025                 /*
2026                  * Try old-deprecated bindings for backward compatibility with
2027                  * older dtbs.
2028                  */
2029                 return _of_add_opp_table_v1(dev);
2030         }
2031
2032         ret = _of_add_opp_table_v2(dev, opp_np);
2033         of_node_put(opp_np);
2034
2035         return ret;
2036 }
2037 EXPORT_SYMBOL_GPL(dev_pm_opp_of_add_table);
2038 #endif